Süddeutsche Zeitung

Facebook und Politik:Demokratie muss rumpeln und stottern

  • Die Stärke der französischen Gelbwesten-Proteste lässt sich unter anderem auch mit dem veränderten Facebook-Algorithmus erklären.
  • Die Geschwindigkeit moderner Softwareentwicklung steht demokratischen Mechanismen der absichtlichen Verlangsamung entgegen.
  • Software-Experimente im Weltmaßstab sind deshalb nicht ungefährlich.

Am 19. Januar 2018 kündigte Mark Zuckerberg an, den Fokus von Facebook stärker auf lokale News und Gruppen zu legen. Damals hatte er sich an der Weltpolitik gerade die Finger verbrannt: Sein Unternehmen hatte Fake News verbreitet, Trump und dem Brexit damit unfreiwillig Schützenhilfe geleistet und stand nun unter politischem Druck. Zuckerbergs Antwort war ein Rückzug: Statt sich weiter in geopolitischen Auseinandersetzungen zu verstricken, wollte er in Zukunft lieber Neuigkeiten aus der Nachbarschaft verbreiten. Und statt Nutzer durch anonyme Trolle aufhetzen zu lassen, sollten sie mehr mit ihrer Familie, Freunden und Bekannten kommunizieren.

Doch nun verdichtete sich genau in dieser digitalen Nachbarschaft ein neuer politischer Protest: die Gelbwesten in Frankreich. Wenn ältere französische Facebook-Nutzer etwas veröffentlichen, schreiben sie gerne "ptg" (kurz für "partager", d.h. teilen, sharen) dazu - gefolgt von der Nummer ihres Départements. Und Gelbwesten-Gruppen nennen sich z.B. "Colère 36" - "Wut aus dem Departement 36". Als Facebook seinen Algorithmus änderte, verloren große Nachrichtenseiten massiv an Sichtbarkeit - die lokalen Wutgruppen dagegen wurden mit Traffic geradezu geflutet. Ihre Anliegen, nach denen zuvor kein Hahn gekräht hatte, hatten auf einmal ein riesiges Publikum. Ein neuer Aufstand artikulierte sich, mit kräftiger Hilfe von ein bisschen Code aus dem Silicon Valley.

Man könnte diese Entwicklung "agile Revolution" nennen. Der englische Begriff "agile" (beweglich, wendig) stammt ursprünglich aus der Softwareentwicklung und beschreibt eine neue Art der Zusammenarbeit: Statt Produkte ausgiebig zu planen, sie dann über Jahre zu entwickeln und lange "im Labor" zu testen, entwickelt man lieber schnell ein "Minimum Viable Product" - einen extrem simplen Prototypen. Dieses noch unausgereifte Produkt wird direkt auf die Nutzer im Netz losgelassen. Man beobachtet, was passiert und lernt aus den gewonnenen Daten. Dann veröffentlicht man einen neuen Prototypen - und immer so weiter. Permanent Beta, der ewige Testlauf. Der Vorteil: radikal verkürzte Innovationszyklen. Der Nachteil: Die Ingenieure richten ihre Produkt-Pipeline quasi direkt auf die Welt, machen sie zum Experimentierfeld und ihre User zu Versuchskaninchen.

Nicht nur die Menschen sind das Problem, sondern die Geschwindigkeit selbst

Und wie das so ist bei Experimenten: Es geht auch mal was schief. So wie bei den Gelbwesten: Als Zuckerberg sein Unternehmen aus dem politischen Tumult zurückziehen wollte, wurde der Algorithmus geändert - und der nächste politische Tumult ausgelöst. Facebook ist so groß, dass jeder "Pivot", also jeder strategische Kurswechsel, sofort massive Folgen nach sich zieht. In diesem Fall sogar Tote.

Die neuesten Enthüllungen aus dem Facebook-Universum bieten dafür nun eine recht verführerische Erklärung: Die Facebook-Führung hat moralisch versagt. Tatsächlich lassen die Nachrichten der vergangenen Wochen und Monate Facebook "wie ein Internet-Kartell mit nur einem Ziel" aussehen: "Geld verdienen und den Wettbewerb zerstören", so der Tech-Newsletter der New York Times. Damit wären auch die Probleme leicht zu lösen: Alles, was es braucht, um Facebook wieder weiß zu waschen und die Welt zu beruhigen, wäre neues Management.

Doch tatsächlich sind wohl nicht nur ein paar Menschen das Problem, sondern die Geschwindigkeit selbst. Facebook kann sein Unternehmensmotto "Move Fast and Break Things" noch so oft zurücknehmen, Zuckerberg kann sich tausendmal entschuldigen und sogar zurücktreten - es wird nicht das Geringste daran ändern, dass in einem unregulierten Wettbewerb immer die Schnellsten gewinnen.

Für demokratische Verfahren wurde bewusst nicht der kürzeste, schnellste Weg gewählt

Und genau hier liegen die Schwierigkeiten. Viele alte Institutionen wussten das und enthielten darum "innere Bremsen": Redaktionen mussten Fakten prüfen, bevor sie veröffentlicht wurden; Autos hatten Elchtests zu bestehen; in Parlamenten wurde ausgiebig diskutiert; vor Gericht gab es auch eine Verteidigung usw. In all diesen Fällen wurde bewusst nicht der kürzeste, schnellste und reibungsloseste Weg gewählt. Im Gegenteil: Das Verfahren sollte rumpeln, stottern und immer wieder innehalten, es waren Konflikte und diverse "Checks and Balances" vorgesehen.

Genau das war mal ein Wettbewerbsvorteil: Verfahren dieser Art sind zutiefst demokratisch - sie lassen mehrere, oft widerstreitende Perspektiven zu Wort kommen, führen dadurch aber auch zu besser informierten Ergebnissen. Dass sie länger brauchen, wurde lange als notwendiges Übel akzeptiert.

Das Versprechen der Computer und ihrer künstlichen Intelligenz besteht nun aber darin, solche Prozesse übermenschlich zu beschleunigen. Anders als Menschen müssen Computer nicht erst viele hundert andere Menschen treffen und mit ihnen Schach spielen, bevor sie zu Großmeistern werden können. Sie müssen nicht einmal alte Schachspiele studieren. Stattdessen spielt ein lernender Algorithmus wie Googles AlphaZero einfach vier Stunden (!) lang gegen sich selbst - das genügt, um für Menschen (und ältere Schachcomputer) unschlagbar zu werden.

Die Welt ist nicht so einfach zu berechnen wie ein Schachspiel

Das ist die Perspektive, mit der Tech-Unternehmen lange auf die Welt gesehen haben. Sie haben die schnellsten Rechner und gewaltige Datenberge - was soll da schon schiefgehen? "Move Fast and Break Things" ist letztlich das Motto einer intelligenten Maschine, die eben auch alle möglichen Spiele einmal verlieren muss, bevor sie unschlagbar wird.

Nur leider ist die Welt nicht ganz so "einfach" berechenbar wie Schach mit seinen klaren Regeln. Facebook hat mehr als zwei Milliarden Nutzer und operiert in diversen Kulturen, Religionen und politischen Systemen - man könnte durchaus von einem komplexen System sprechen. Es bräuchte daher noch viel mehr Daten und Rechenpower, um alle möglichen Zukünfte der Welt zu berechnen. Und selbst dann gäbe es eine eingebaute "Unschärferelation", weil Menschen die lästige Eigenschaft haben, vorhergesagte Schicksale aktiv verhindern zu wollen. Die einzige Zukunft, die relativ sicher und einfach erreicht werden kann, besteht aus Chaos und Zerstörung.

Vielleicht sollten wir deshalb ein bisschen vorsichtiger sein, was das Experimentieren im Weltmaßstab angeht. "Agile at Scale", also "agiles Management im großen Maßstab" war ein großes Schlagwort in der Management-Theorie der vergangenen Jahre. Alle großen Unternehmen und Organisationen sollen so schnell und wendig wie Start-ups gemacht werden. Und auch politisch gibt es einen großen Trend in Richtung neuer Start-up-Parteien und Bewegungen, die sich oft nur äußerst ungern demokratische Zügel anlegen lassen wollen. Wir sollten in den kommenden Wochen mit großer Anteilnahme nach Paris blicken und überlegen, ob das wirklich so eine gute Idee ist.

Bestens informiert mit SZ Plus – 14 Tage kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4246746
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 11.12.2018/khil
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.