Psychologisches Experiment Hunderttausende manipulierte Newsfeeds bei Facebook

Wie wirken sich die Statusmeldungen anderer auf die eigenen Facebook-Posts aus? Um diese Frage zu beantworten, hat ein Forscherteam die Newsfeeds von mehr als 600.000 Menschen manipuliert - ohne deren ausdrückliche Zustimmung.

  • Für ein wissenschaftliches Experiment wurden Newsfeeds von mehr als 600.000 Menschen verändert.
  • Der Test fand bereits 2012 statt, wurde aber erst jetzt durch Veröffentlichung der Studie bekannt.
  • Manipulation ist durch die Nutzungsbestimmungen gedeckt.

Eine Flut aus Bildern und Statusmeldungen: Der Newsfeed von Facebook verspricht, einen immer und überall darüber zu informieren, wer gerade was, wo, mit wem macht. Jetzt wird bekannt: Im Januar 2012 wurde mehr als 600.000 Menschen ein eigens für ein psychologisches Experiment manipulierter Feed vorgesetzt. Eine Woche lang sahen manche überwiegend positive Einträge ihrer Freunde, andere überwiegend negative. Die Nutzer wurden wider Willen zu Versuchskaninchen, sie wussten weder von dem Test noch hatten sie ihm ausdrücklich zugestimmt oder wurden vorab informiert.

Ergebnisse erst jetzt veröffentlicht

Ein Forscherteam um den Wissenschaftler Adam Kramer wollte durch das Experiment herausfinden, ob die Statusmeldungen des Freundeskreises die eigenen beeinflussen - mit dem Ergebnis, dass am Ende der Woche die Gruppe, die vor allem mit Positivem bespült wurde, ebenfalls überwiegend positive Meldungen postete. Die andere Negativ-Gruppe dagegen überwiegend weniger erfreuliche Ereignisse. Der Effekt ist allerdings äußert klein, wobei er aufgrund der hohen Nutzerzahl von Facebook potentiell immer noch Hunderttausende betreffen könnte. Das Experiment wurde erst jetzt öffentlich, da die Ergebnisse der Studie nun in der aktuellen Ausgabe der Fachzeitschrift Proceedings of the National Academy of Sciences erschienen sind.

Legitimation durch die Nutzerbestimmungen

Dass die Nutzer von der bewussten Veränderung ihres Newsfeeds nichts wussten, ist durch die Nutzungsbedingungen - denen jeder bei der Anmeldung bei dem sozialen Netzwerk zustimmen muss - legitimiert. Facebook hat die sichtbaren Einträge schon immer nach eigenen Kriterien ausgewählt. Nach welchen, wusste niemand so genau. Vor einem Jahr versprach der Konzern deshalb seinen Feed transparenter zu machen.

Susan Fiske, Psychologie-Professorin an der Princeton University, die bei der Veröffentlichung der Studie involviert war, rechtfertigte das Vorgehen gegenüber der Zeitschrift The Atlantic deshalb mit der Begründung: Facebook manipuliere den Newsfeed seiner Nutzer doch sowieso die ganze Zeit über. In der Tat probieren Internetfirmen ständig Veränderungen an ihren Algorithmen aus, um ihre Angebote zu verbessern. Google etwa spricht davon, jährlich 74 000 Tests an seinem Suchalgorithmus vorzunehmen. Diese Ergebnisse bleiben allerdings Geschäftsgeheimnis.

Weitere Studie sagt: Facebook macht miese Laune

Schon oft haben sich Wissenschaftler mit Gruppenmechanismen auf Facebook beschäftigt: Die Psychologen Christina Sagioglou und Tobias Greitemeyer von der Universität Innsbruck hatten erst im Mai dieses Jahres herausgefunden, dass Facebook schlechte Laune macht - und zwar nicht nur, wenn der Newsfeed absichtlich mit negativen Meldungen gefüllt ist.