Wie man weiss, kann das Herumhängen mit griesgrämigen Typen leicht zu einem Dämpfer der eigenen Befindlichkeit führen. Psychologische Studien belegen schon seit längerem die Trivialität, dass Stimmungen anstecken, wie Niesen oder Gähnen. Man kann sich natürlich fragen, ob es dazu überhaupt psychologischer Studien bedarf.
Experimente bei Facebook
Nicht trivial, sondern nun wirklich brisant wird freilich die Situation in der Netzwerkforschung. Der amerikanische Sozialpsychologe und Datenanalytiker Adam Kramer, angestellt bei Facebook, wollte 2012 herausfinden, ob sich eine solche Ansteckung auch in sozialen Netzwerken beobachten lässt. Er und seine Mitarbeiter nahmen sich den Newsfeed-Algorithmus von Facebook vor, das Programm also, das automatisch jene Nachrichten herausfiltert, welche auf die Homepage eines Mitglieds geleitet werden sollen.
Diesen Algorithmus «frisierten» die Psychologen so, dass er kleine Veränderungen im «emotionalen Gehalt» der Feeds vornahm, die einem Sample von Facebookmitgliedern zugesandt wurden (ca. einer halben Million). Die eine Probandengruppe erhielt etwas häufiger als normal «positive» Nachrichten, die andere Gruppe etwas häufiger «negative» Nachrichten. Für die Kategorisierung «positiv» und «negativ» verwendeten die Forscher ein Standardprogramm zur Textanalyse, welches Wörter mit emotionalem Gehalt erkennt. Nach dieser «Mood-Analyse» prüften sie jeden Probanden darauf, ob die geringfügige Änderung im Algorithmus den emotionalen Gehalt seiner Facebook-Posts beeinflusste.
«Courant normal» der Netzforschung
Die Forscher fanden heraus, dass Leute, die mit mehr positiven, bzw. negativen Nachrichten «gefüttert» wurden, auch entsprechend mehr positive, bzw. negative Ausdrücke gebrauchten. Der Effekt erwies sich allerdings als geringfügig, als so unbedeutend, dass er, wie Kramer selber zerknirscht in einem Post eingestand, statistisch nahezu irrelevant war. Eine ziemlich schwache Form von Ansteckung also.
Zu denken gibt weniger das Resultat als der Courant normal solcher «Studien». Facebook erklärte in einer offiziellen Stellungnahme, dass Kramers Experiment bloss die sichtbare Spitze eines Eisbergs sei. Wie ein Sprecher des Unternehmens in einer E-Mail an die Presse mitteilte, möchte Facebook verstehen, «wie die Leute auf unterschiedliche Arten von Content reagieren, auf News von Freunden, auf Informationen von Websites, deren Follower sie sind.»
Sheryl Sandberg, Geschäftsführerin des Internetriesen, bekräftigte dies an einer Pressekonferenz. Als einzigen problematischen Fleck an der Studie anerkannte sie, dass sie schlecht kommuniziert worden sei. Ein ehemaliger Mitarbeiter der Forschungsabteilung von Facebook – der Data Science Unit – liess durchblicken: «Jedes Teammitglied konnte solche Versuche durchführen. Wir sind immer daran, das Verhalten der Leute zu ändern.»
Eine ethisch neuralgische Stelle
Die Studie entfachte, nachdem sie in den Medien aufgepeppt worden war, einen öffentlichen Entrüstungssturm. Ein regelrechtes Facebook-Bashing setzte ein. «Wer bisher noch im Ungewissen darüber war, wie Facebook seine Nutzer missachtet, für den wird jetzt alles hässlich klar,» schrieb das Online Technomagazin «PandoDaily». Die «New York Times» bezichtigte Facebook, Nutzer wie «Laborratten» zu traktieren; die «Washington Post» sah eine «ethische Grenze überschritten.» Ein Datenschutz-Aktivist fragte sich, ob Facebook mit dem «Emotions-Manipulations-Trick nun jeden Nutzer TÖTE.»
Mögen solche Ausbrüche auch überkandidelt erscheinen, so zeigten sie doch, dass eine ethisch neuralgische Stelle berührt wurde. Facebook steht keineswegs allein da. Mitten in der ganzen Kontroverse gab die Kontaktplattform OKCupid bekannt, ebenfalls derartige Experimente regelmässig durchzuführen. Auf der Basis von sogenannten «Kompatibilitätsabschätzungen» vermittelt OKCupid Partner, das heisst, ihr Algorithmus prüft Nutzerprofile auf ihre Verträglichkeit für das Walten der Cupido. Man manipulierte zum Beispiel in Experimenten die Profile, um herauszufinden, was passiert, wenn zwei «unverträgliche» Partner glauben, sie würden aufgrund der Einschätzung von OKCupid zueinander passen. Ethische Erwägungen treiben Mitbegründer Christian Rudder bei dieser – sagen wir es milde – Verschaukelung des Kunden nicht sonderlich um: «Wer das Internet benutzt, ist jederzeit und auf jeder Website Hunderten von Experimenten ausgesetzt. So funktionieren Websites nun mal.»
Verhaltensänderungsforschung
Nun ist und war Verhaltensforschung immer schon – seit Skinners Rattenexperimenten – Verhaltensänderungsforschung. Davon profitiert die Marktforschung. Ihre zentrale Frage ist: Wie kann der Mensch als Kunde beeinflusst werden? Die früheren Marketingstrategien erwiesen sich – wenn auch oft durchaus raffiniert – als doch ziemlich durchsichtig.
Wir durchschauten das manipulative Potenzial einer Werbung auf ihren traditionellen Trägern meist recht schnell, vom Design, Branding und Placement eines Produkts bis zur Anpreisung durch irgendeine volatile Celebrity aus Film oder Sport. Aufgrund dieser Durchschaubarkeit liess sich manipulativen Tendenzen recht gut widerstehen, wir konnten uns über sie sogar lustig machen.
Im Unterschied dazu sind die Manipulationen im Netz weniger offensichtlich. Genauer gesagt, sind es drei Merkmale, die den Operationen mit Daten einen neuartigen «verdeckten» Charakter verleihen: das Volumen der Daten, die Automatik der Verarbeitung, und – vor allem – die Geheimhaltung der firmeneigenen Algorithmen. In dem Masse, in dem die Internetunternehmen eine beinahe kontinuierliche Kontrollmacht über die gigantischen Ströme persönlicher und anderer sensibler Daten ausüben und sie auch «optimieren» können, sehen wir uns ausserstande, die manipulativen Aktivitäten zu entdecken, geschweige denn einzuschätzen.
Die verlorene Unschuld
Die Datenschutzrichtlinien der EU, die seit 1995 bestehen, sind vor diesem Hintergrund durchaus sinnvoll und begrüssenswert. Letzes Jahr erliess der europäische Gerichtshof ein kontroverses Urteil, das unter dem Namen «Recht auf Vergessenwerden» bekannt geworden ist. Suchmaschinenbetreibern wie Google wurde die Auflage gemacht, unter Umständen persönliche Daten zu löschen, wenn diese das Privatleben oder auch die öffentliche Position eines Nutzers tangieren.
Eine Debatte entbrannte in der Folge darüber, wie denn eine globale Suchmaschine, die Milliarden von Anfragen pro Tag verarbeitet, nun den persönlichen «Stänkereien» von Google-Nutzern gerecht werden könne. Man sprach von der Gefährung des freien Informationszugangs und von der Schaffung von «Gedächtnislücken» im Netz.
Dessenungeachtet verdient der Urteilsspruch das Lob der klugen Weitsicht, und zwar aus einem ganz bestimmten Grund. Er weist in aller Deutlichkeit darauf hin, dass Suchmaschinen, News-Aggregatoren und Social Media keine neutralen Instrumente sind, die uns einfach im Suchen, Sammeln, Speichern und Verwalten von Daten helfen. Die Such-Bots, die das Netz unermüdlich durchkämmen, spielen vielmehr eine aktive Rolle, indem sie neue Links berechnen und dadurch Verknüpfungen überhaupt erst schaffen. Permanent. Google sucht und produziert gleichzeitig Daten. Google ist eine Daten-Fakten-Fabrikation mit ungeheurem Ausstoss. Und deshalb stuft das Urteil «den Suchmaschinenbetreiber, da dieser über die Zwecke und Mittel einer solchen Verarbeitung entscheidet, als (...) für die Verarbeitung Verantwortlichen ein.»
Die Algorithmen haben ihre Unschuld verloren. Sie spiegeln die Interessen und Intentionen ihrer Designer. Vielleicht müsste man schon bald von einer «Algokratie» sprechen (ein Essay des Gottlieb-Duttweiler-Instituts tut das). Jedenfalls soll uns niemand noch einreden, Algorithmen seien «blosse» Hilfsmittel. Zugleich sollten wir uns klar machen: Das Netz ist ein einziges Labor, und wenn wir uns darin bewegen, sind wir wohl oder übel potenzielle Laborratten – wohl eher übel.