Test mit Hunderttausenden Nutzern Internet-Ethiker kritisieren Facebook-Experiment

689.003 unfreiwillige Versuchskaninchen: Facebook manipulierte die Startseite der Nutzer, um herauszufinden, wie sie auf emotionale Inhalte reagieren. Das Ergebnis ist wenig überraschend, doch die Kritik an der Studie ist groß.

Von Hakan Tanriverdi

Adam Kramer ist 72 Prozent glücklicher als die Durchschnittsperson auf Facebook. Das fand er heraus, als er 2009 als Praktikant bei Facebook eine Studie durchführte. Er wollte wissen, an welchen Tagen die Nutzer des Netzwerks besonders glücklich oder traurig waren. Das Datenteam des Unternehmens analysierte, wann die Nutzer am häufigsten gewisse Worte schrieben. "Yay" beispielsweise wurde als glückliche Aussage gewertet, "sad" stand für die Aussage eines traurigen Nutzers. Das Ergebnis war naheliegend: An Montagen sind die Nutzer eher schlecht gelaunt, an Freitagen hingegen um 9,7 Prozent glücklicher. In einem Beitrag, der parallel zu den Ergebnissen veröffentlicht wurde, schrieb Kramer: "Wir sind interessiert daran, wie Menschen ihre Gefühle untereinander und mit der Welt austauschen."

Es ist ein Satz, den Adam Kramer knapp fünf Jahre später fast wortgleich wiederholt. Seit Tagen stehen der Forscher, sein Team und Facebook selbst in der Kritik. Der Grund ist eine Studie, in der Facebook erneut nach Worten filtert. Was sich unterscheidet, ist der Ansatz: Facebook manipulierte 2012 eine Woche lang den Newsfeed, also die Hauptseite, von 689 003 Nutzern. Bei einer Gruppe wurden positive Inhalte hin und wieder ausgeklammert, bei der anderen Gruppe hingegen negative Beiträge. Diejenigen, die eher negative Beiträge in ihren Hauptkanal gespült bekamen, schrieben auch selbst Negatives - Positives zog gleichermaßen Positives nach sich.

Kritisiert wird nun vor allem, wie das Unternehmen vorgegangen ist. "Facebook hätte die betroffenen Nutzer um Einwilligung bitten und ihnen erklären müssen, wofür die Daten verwendet werden", sagt Nele Heise. Das sei aber nicht passiert. Heise ist wissenschaftliche Mitarbeiterin am Hans-Bredow-Institut in Hamburg, ihre Magisterarbeit hat den Titel: "Ethik der Internetforschung".

Facebook selbst rechtfertigte sich mit einem Verweis auf die Allgemeinen Geschäftsbedingungen. Dort wird erwähnt, dass die Daten auch zu "Forschungszwecken" verwendet werden können. Für Heise reicht das jedoch nicht aus. "Das ist für eine wissenschaftliche Forschung viel zu wenig. Die Geschäftsbedingungen liest ja niemand."

Soll die Forschung dazu dienen, Geld zu verdienen?

Doch andere Forscher kritisieren die Aufregung, etwa Tal Yarkoni von der University of Texas at Austin, der in einem Blogeintrag Facebook verteidigt. Die Facebook-Studie ist ihnen zufolge nicht ungewöhnlich. Sie verweisen auf sogenannte A/B-Tests. Mit diesen testen Internetkonzerne mehrere Versionen ihres Produkts. So können sie sehen, welche Variante die Kunden am besten annehmen. Diese so verbesserten Algorithmen sind die Geldmaschinen der Konzerne. Auch Google etwa arbeitet ununterbrochen daran, welche Suchergebnisse auf den ersten Plätzen angezeigt werden.

Facebook arbeitet kontinuierlich an seinem Algorithmus, um herauszufinden, wie die Nutzer mit der Seite interagieren: Welche Inhalte werden angezeigt, wann klicken die Nutzer öfter auf den Like-Button, wie groß müssen die Vorschaubilder sein, damit sie geteilt werden? Das sind Fragen, die Facebook sich stellt. Kleine Experimente sollen helfen, das herauszufinden. Ende 2013 entschied sich Facebooks nach Tests dazu, "Inhalte von hoher Qualität" zu bevorzugen - mehr Nachrichten, weniger Katzenbilder.

Doch Kommunikationswissenschaftlerin Nele Heise unterscheidet zwischen diesen Tests und dem neuen Facebook-Experiment: "Bei einem A/B-Test geht es um das Produkt, in der Wissenschaft um Wissen", sagt sie. Es sei also eine Frage des Ziels: Soll die Forschung dazu dienen, Geld zu verdienen oder den Menschen zu helfen?

Kramer hat sich nun entschuldigt. "Zu keinem Zeitpunkt ist es unser Ziel gewesen, jemanden zu verunsichern." Er betont, dass die Studie nur einen sehr kleinen Effekt gehabt habe. "Im Durchschnitt schrieben die Nutzer ein emotional aufgeladenes Wort weniger - bei tausend Wörtern", so Kramer. Doch auch wenn die Auswirkungen sehr klein sind: Aufgrund der enorm hohen Nutzerzahlen von Facebook können potenziell immer noch Hunderttausende von solchen Änderungen betroffen sein.