Philip Howard:"Facebook und Twitter bringen mehr Gutes als Schlechtes hervor"

lpr-forum-medienzukunft 2017; Bei Erwähnung LPR Forum Medienzukunft 2017 honorarfrei - Philip Howard Oxford Internet Institute Bots

Philip Howard vom Oxford Internet Institute wünscht sich schärfere Gesetze gegen Social Bots und Fake News.

(Foto: Fotoagentur FOX / Uwe Voelkner)

Doch das könnte sich bald ändern, warnt Oxford-Soziologe Philip Howard. Er glaubt, dass Fake News und Bots die Demokratie bedrohen und fordert politische Regulierung.

Interview von Lena Jakat

Der kanadische Soziologe Philip Howard forscht am Oxford Internet Institute zu maschinengenerierter politischer Kommunikation. Sein Projekt zu "computational propaganda" untersucht, wie die Mechanismen sozialer Netzwerke die Politik in Staaten weltweit verändern.

SZ: Sie sagen, soziale Netzwerke beschädigen die Demokratie. Wie meinen Sie das?

Philip Howard: In den vergangenen neun Monaten haben sich soziale Netzwerke zu den wichtigsten Medien der Welt entwickelt. Die meisten Menschen beziehen dort ihre Informationen. Es hat sich aber auch gezeigt, dass politische Akteure auf Facebook und Twitter sehr viele Menschen manipulieren können, indem sie automatisierte Nutzerkonten einsetzen, sogenannte Bots. In Europa und Kanada zum Beispiel steigt nun die Zahl derjenigen, die am Klimawandel zweifeln. In den USA sind sich die Menschen nicht mehr sicher, dass Rauchen und Krebs zusammenhängen. Selbst wissenschaftliches Allgemeinwissen schwindet also, weil die Plattformen ihren Nutzern inkorrekte Informationen liefern.

Beeinflussungen der öffentlichen Sphäre hat es doch immer schon gegeben?

Ja, aber früher gab es Mechanismen, um zu Konsensentscheidungen zu gelangen. Politik wurde in der Regel auf der Grundlage belegbarer Fakten gemacht. Man hat Wissenschaft und Experten respektiert. Jetzt gibt es viele fragmentierte Öffentlichkeiten. Und Inhalte, die speziell für sie produziert werden. Diese Inhalte bestehen oft aus Lügen, sind das Produkt politischer Schmierkampagnen, sie folgen keiner Logik, keiner wissenschaftlichen Erkenntnis. Wenn niemand mehr Experten vertraut, ist es schwierig, einen Konsens zu finden.

Was kann man da tun? Darauf bauen, dass soziale Netzwerke verantwortungsvoller mit Inhalten umgehen?

Wir haben lange darauf gewartet, dass Facebook und Twitter freiwillig etwas an ihrem System verändern. Das Ergebnis waren Trump und der Brexit. Wenn die Unternehmen es nicht schaffen, kreative Lösungen zu finden, braucht es zusätzliche Kontrolle von außen. Etwa durch Gesetze.

In Deutschland soll ein neues Gesetz Facebook und Twitter dazu bringen, Fake News mit strafbaren Inhalten schneller zu löschen. Hessen, Bayern und Sachsen-Anhalt wollen Botnetze gesetzlich verbieten. Ist das der richtige Weg?

Tatsächlich sind das Problem nicht Fake News oder Bots, sondern beides. Inhalte und Distribution greifen ineinander. In Europa gibt es schon viele gute Gesetze zur politischen Kommunikation, anders als zum Beispiel in den USA. Deswegen ist dort das Fake-News-Problem auch schwerwiegender. Bots haben im US-Wahlkampf zwei entscheidende Dinge bewirkt: Sie haben zu Beginn des Wahlkampfs Trumps Rückhalt in der Bevölkerung größer erscheinen lassen, als er womöglich war. Und sie haben bis zum Wahltag die "Hillary ist korrupt"-Geschichten am Leben erhalten.

Bedrohen Bots die politische Debatte auch in Deutschland?

Die deutschen Internetnutzer sind aufgeklärter, das Bildungsniveau ist hier deutlich höher als in vielen anderen Ländern. Fake News sind ein Problem, aber ein sehr viel kleineres als anderswo. Aber auch hier gibt es automatisierte Einflussnahme - durch Lobbyisten, die Gesetze verändern wollen, und durch Akteure von außen.

Müssen wir uns daran gewöhnen, im Netz mit Maschinen zu sprechen?

Ja. Ein möglicher nächster, gefährlicher Entwicklungsschritt könnte sein, dass die Inhalte, die Bots verbreiten, ebenfalls von Programmen erstellt werden. Wenn künstliche Intelligenz in der Lage ist, Facebookdaten zu nutzen, um maßgeschneiderte Inhalte anzufertigen, dann wäre das eine große Bedrohung für die öffentliche Sphäre. Und Bots werden immer besser darin, wie Menschen zu kommunizieren. Es wird schwieriger, sie zu erkennen.

Braucht es eine Kennzeichnungspflicht für Bots?

Das wäre ein einfacher und richtiger Schritt. Das Kennzeichnen von Bots stärkt das Vertrauen in die Plattform. Das ist gut, denn wenn das Fake-News-Problem anhält, wird das öffentliche Vertrauen in soziale Medien schwinden. Das wäre schlecht, denn soziale Netzwerke bringen immer noch mehr Gutes als Schlechtes hervor.

Welche Möglichkeiten gibt es noch, soziale Netzwerke politisch zu steuern?

Facebook und Twitter sitzen auf riesigen Datenmengen über die Probleme unseres politischen Systems, die sie nicht herausgeben. Gleichzeitig funktioniert die Demoskopie nicht mehr richtig. Wir können die öffentliche Meinung nicht mehr zuverlässig messen. Der Gesetzgeber sollte Szenarien definieren - Katastrophen zum Beispiel oder politische Krisen - in denen die sozialen Netzwerke ihre Daten im öffentlichen Interesse zur Verfügung stellen müssen.

All unsere Daten aus den sozialen Netzwerken in staatlicher Hand? Klingt auch nicht unproblematisch.

Mehr Kontrolle ist nicht immer besser - aber was am Ende zählt, ist die Rechtsstaatlichkeit. Es gibt keine einfache Lösung. Wir müssen darüber diskutieren, wie gute Gesetze für soziale Netzwerke aussehen könnten. Staatlicher Missbrauch muss natürlich verhindert werden. Gerade läuft der Missbrauch allerdings anders: Politische Akteure, die wir nicht komplett verstehen, nutzen soziale Netzwerke, um Allgemeinwissen und das Vertrauen der Öffentlichkeit in die Regierung zu beschädigen. Eine weitere Möglichkeit, soziale Netzwerke zu kontrollieren, könnte darin bestehen, ihre Algorithmen einem öffentlichen Audit-Verfahren zu unterwerfen.

Aber ist es realistisch, dass sie ihre Algorithmen offenlegen?

Facebook, Twitter, Google sind private Wirtschaftsunternehmen, sie betrachten ihre Algorithmen als geistiges Eigentum. Aber Auditing-Verfahren gibt es auch in anderen Bereichen, wo sie im öffentlichen Interesse liegen: für die Algorithmen von Spielautomaten zum Beispiel oder für die Algorithmen des Finanzhandels. Wie wir in der Fake-News-Debatte mit Facebook umgehen, wird aber prägend dafür sein, wie wir uns dem nächsten großen Problem nähern: dem Datenstrom aus dem Internet der Dinge. Denn bald wird auch der Geschirrspüler zum Medium.

Der Geschirrspüler?

Daten aus dem Internet der Dinge werden fast vollständig unser Verhalten abbilden. Der Geschirrspüler kann also als Mittler zwischen uns und politischen Akteuren fungieren. Die Daten, die Facebook hat, verraten etwas über unsere Meinungen, unsere Ziele. Man stelle sich vor, dass diese Daten mit den verhaltensbasierten Daten kombiniert werden. Dann ergibt sich ein komplettes Profil davon, was jemand sagt, denkt und tatsächlich tut. Und wenn der Facebook-Algorithmus dann noch die passenden Inhalte ausspielt, wäre dies das perfekte System politischer Kontrolle.

Wie kann man sich dagegen wehren?

Es wird nahezu unmöglich sein, sich dem Internet der Dinge zu verschließen. Das Ziel, auf das wir hinarbeiten sollten, ist, dass zivilgesellschaftliche Akteure auf diese Daten Zugriff erhalten.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: