Big-Data-Forschung Facebook, gib deinen Datenschatz frei

Wer Zugang zu Facebooks Daten bekommt, darüber entscheidet Facebook.

(Foto: dpa; Bearbeitung SZ)

Die Affäre um Cambridge Analytica zeigt: Der Megakonzern muss Wissenschaftlern nicht weniger, sondern mehr Zugang zu seinen Daten gewähren.

Kommentar von Jan Schwenkenbecher

Facebooks Server sind das Eldorado für Forscher unserer Zeit. Statt Gold könnten sie dort Daten schürfen: 1,4 Milliarden tägliche Nutzer, 500 Milliarden verschickte Emojis im vergangenen Jahr, mehr als eine Billion Likes insgesamt. Ob die Wissenschaftler aber in das Goldland eintreten dürfen, entscheidet Facebook. Das muss sich ändern. Das Unternehmen sollte Forschern mehr und nicht weniger Zugang gewähren.

Wie wichtig die Forschung mit Facebook-Daten ist, zeigt der Fall um Cambridge Analytica (CA). Der Psychologie-Dozent Aleksandr Kogan von der Universität Cambridge verschaffte CA Zugang zu 50 Millionen Facebook-Profilen, mit denen das Unternehmen Wahlkampf betrieb - wie erfolgreich, ist unklar. CA behauptet, eine zutiefst individualisierte, auf den jeweiligen Charakter von Nutzern ausgerichtete Kampagne geführt haben zu können.

Facebook speicherte jahrelang Anruf- und SMS-Verlauf

Angeblich wurden Android-Nutzer nicht um Erlaubnis gefragt. Das Unternehmen dementiert die Vorwürfe. Von Caspar von Au mehr ...

Tatsächlich konnten unabhängige Wissenschaftler der Universität Cambridge zeigen, dass sich von den Likes der Nutzer mit hoher Wahrscheinlichkeit auf deren Geschlecht, sexuelle Orientierung, Religion oder Charakter schließen lässt. Es liegt nahe, dass Facebook das schon früher gewusst haben könnte, schließlich forschen fast 500 Wissenschaftler in dem Unternehmen. Zum Teil in Kooperation mit Universitäten außerhalb des Konzerns, dann werden manche Ergebnisse dieser Studien bekannt.

2010 zeigten Facebook-Forscher bei US-Wahlen etwa, dass ein auf der Profilseite eingeblendeter "Ich war schon wählen"-Button die Nutzer und deren Freunde mobilisierte, wählen zu gehen. Die Stichprobe umfasste 61 Millionen US-amerikanische Facebook-Nutzer. 2012 zeigten Facebook-Forscher, dass Nutzer öfter positive Statusmeldungen posteten, wenn die Wissenschaftler deren Newsfeed so filterten, dass dort auch vermehrt positive Nachrichten auftauchten. Umgekehrt funktionierte das auch mit negativen Beiträgen. 700 000 Nutzer dienten als Versuchskaninchen - ohne davon zu wissen.

Was Facebook ändern muss

Das sind nur zwei Beispiele. Sie waren noch methodisch, ethisch und juristisch fragwürdig, aber die Big-Data-Wissenschaft konnte bei ihnen bereits einzigartige Erkenntnisse liefern, die sonst verborgen blieben. Auf sie sollte man nicht verzichten.

Problematisch ist allerdings zweierlei. Erstens, dass externe Wissenschaftler nur äußerst schwer an die Daten gelangen können. Dies ist bislang nur über eine Entwickler-Schnittstelle möglich - oder indem Externe mit Facebook-Forschern zusammenarbeiten. Zweitens läuft die unternehmenseigene Forschung bislang völlig unkontrolliert ab. Die sonst im Wissenschaftsbetrieb übliche Vorschrift, jedes halbwegs heikle Experiment einer Ethik-Kommission vorzulegen, gilt für Facebook nicht. Es ist ein privates Unternehmen.

Es sollte deshalb eine übergeordnete Instanz geben, eine eigene Facebook-Ethik-Kommission mit Experten, die nicht aus dem Unternehmen stammen. Diese könnte kontrollieren, was die Facebook-Wissenschaftler erforschen und entscheiden, welche Vorhaben mit dem Datenschutz der Nutzer vereinbar sind. Außerdem sollte eine solche Kommission auch das Recht haben, Anträge von externen Wissenschaftlern zu genehmigen, die mit den Daten arbeiten wollen. Ein solcher Zugang zu Facebooks Datenschatz würde die Nutzer schützen, einzigartige Erkenntnisse liefern und gleichzeitig helfen, den Koloss bei der Forschung im Zaum zu halten.

Facebook-Großkunden drohen mit dem Exodus

Ein Konzern nach dem anderen kündigt seine Werbung auf dem sozialen Netzwerk. Den Unternehmen passen die Bedingungen dort schon länger nicht, jetzt nutzen sie den Skandal. Die Summen, um die es geht, sind sogar für Facebook gefährlich. Von Kathrin Werner mehr...