Es klingt nach Science-Fiction: Wir bilden Meinungen zu politischen Themen durch den Blick in die Zeitung, durch Diskussionen und indem wir die uns verfügbaren Informationen auswerten. Doch währenddessen formiert sich in der virtuellen Welt eine Armee von künstlichen Intelligenzen, die sich anschickt, genau diesen Meinungsbildungsprozess zu sabotieren.
So lesen sich einige Schlagzeilen der vergangenen Wochen. Vom "Rise of the Brexit-Bots", dem Aufstand der Brexit-Bots, schrieb die Daily Mail im Umfeld des Brexit-Votums. Mit Blick auf den Präsidentschaftswahlkampf in den USA sprachen Journalisten von den "Bot-Armeen" der Kandidaten. Insbesondere Donald Trumps künstliche Twitterei schätzen Wissenschaftler als ernste "Gefahr für die Demokratie" ein.
Die Hälfte des Internet-Traffics stammt von Maschinen
Ein Bot - abgeleitet vom englischen "robot" - ist ein Computerprogramm, das selbständig dazu in der Lage ist, sich wiederholende Aufgaben abzuarbeiten. Bots sind für vieles im Netz verantwortlich. Sogenannte Webcrawler etwa machen es möglich, dass wir mit einer Suchmaschine finden, was wir suchen. Knapp 50 Prozent des Datenverkehrs im Internet gingen 2015 auf das Konto derartiger Algorithmen, wie Incapsula, eine auf Internetsicherheit spezialisierte Firma, in ihrem jährlichen Bericht meldete.
In den oben genannten Schlagzeilen geht es um eine Sonderform dieser Programme, die sogenannten Social Bots, die sich in sozialen Netzwerken wie Twitter und Facebook herumtreiben. Sie gerieren sich dort wie Nutzer, sind aber automatisierte Fake-Profile. Sie kommentieren, teilen, trollen, schicken Kontaktanfragen. Und sie äußern sich zu politischen Themen, wie Soziologen auf der Webseite Politicalbots.org dokumentieren.
Facebook Messenger:Zuckerberg schickt die Bots los
In Fernost haben Messenger und Chatbots normale Apps ersetzt. Facebook wittert die Chance, Google und Apple gefährlich zu werden.
Dass autoritäre Regime Bots einsetzen, um den Informationsfluss in ihrem Sinne zu lenken, ist bekannt. Seit dem Arabischen Frühling weiß man, dass Twitter-Bots in Syrien genutzt wurden, um es Usern zu erschweren, Informationen über die Proteste zu finden - etwa, indem sie Anfragen mit Falschantworten bombardierten. Studien zeigen allerdings, dass Lobbyarbeit per Bot auch außerhalb von autoritären Staaten keine Seltenheit mehr ist.
Beide Brexit-Lager nutzten computergesteuerte Propaganda
Die neueste Diskussion darüber, welche Rolle diese Twitter-Bots im Prozess der politischen Meinungsbildung einnehmen, wurde von einer wissenschaftlichen Studie angestoßen, die Soziologen anlässlich des Brexit-Referendums veröffentlichten. Philip Howard von der Universität Oxford und Bence Kollanyi von der Corvinus-Universität in Budapest hatten mehr als 1,5 Millionen Tweets ausgewertet, die im Zeitraum vom 5. bis zum 12. Juni zum Brexit abgesetzt worden waren. Ihr Ergebnis: Mehr als 30 Prozent dieser Kurznachrichten stammten von lediglich einem Prozent der an der Diskussion beteiligten Accounts. Für die Wissenschaftler deutet dieses Missverhältnis klar daraufhin, dass hier nicht nur Menschen an Smartphones mitmischten, sondern auch Codes.
Die Forscher schauten also genauer hin. "Interessanterweise konnten wir eine verstärkte Bot-Aktivität auf beiden Seiten entdecken", sagt Kollanyi. Beide Parteien der Brexit-Debatte - die Befürworter ebenso wie die Gegner - erhielten offenbar Unterstützung von Computerprogrammen. Ungefähr 15 Prozent der Accounts beider Lager setzten täglich Tweets in einer Dichte ab, die ohne Automatisierung nicht zu bewältigen wäre. Doch gibt die Studie keinen Hinweis darauf, dass die Twitter-Bots das Referendum zu Gunsten des Brexit manipuliert hätten. Sie ermöglicht jedoch einen Einblick in Wahlkampfmethoden, bei denen computergesteuerte Propaganda eine immer größere Rolle spielt.
"Die Bot-Aktivität rund um Wahltermine und Referenden ist besonders hoch", sagt Kollanyi, der zur Rolle von Technologie in politischen Umbruchphasen forscht. Den größten Einfluss hätten Bots vor allem dort, wo ein großer Wählerkreis den "Mainstream-Medien" misstraue, so Kollanyi. "Im Fall des Brexit-Referendums wählten viele Menschen bewusst gegen das Establishment" - zu dem sie eben auch die klassischen Medien zählen. Daher spielten hier soziale Medien eine größere Rolle bei der politischen Meinungsbildung.
Das größte Risiko liege darum in der Transparenz, sagt Kollanyi. Die Bots geben sich ja nicht als solche zu erkennen. Für den durchschnittlichen Twitter-Nutzer ist es daher kaum möglich, zu unterscheiden, ob Nachrichten von einem Menschen oder von Computerprogrammen generiert wurden. Es gibt zwar Websites, auf denen man verdächtige Accounts prüfen lassen kann. Aber dafür muss man sich des Phänomens ja bereits bewusst sein.
Keine Programmierkenntnisse nötig
Hinzu kommt: Selbst wenn man weiß, dass man es mit einem Bot zu tun hat, ist nicht klar, wer ihn programmiert hat. "Verglichen mit älteren Formen der Propaganda, die sich auf die traditionellen Medien konzentrierten, benötigt man für Bots viel weniger Ressourcen. Die Kosten sind niedrig. Man braucht keine Kontrolle über Radio- oder Fernsehfrequenzen", sagt Kollanyi. Außerdem sind die Codes im Internet leicht zu finden: "Jeder mit einem Minimum an Programmierkenntnissen kann einen Bot schreiben und nutzen."
Microsoft-Programm "Tay":Rassistischer Chat-Roboter: Mit falschen Werten bombardiert
Microsoft hat den lernfähigen Chat-Roboter "Tay" auf Twitter losgelassen. Bis Nutzer das Programm rassistische Propaganda lehrten.
Experten aus Wissenschaft und Politik denken daher darüber nach, wie sich der Einfluss dieser Propaganda eindämmen ließe. Im Zentrum ihrer Überlegungen steht die Forderung an Twitter, Bot-Accounts konsequent zu löschen. Doch zu glauben, dass damit die Zustimmung zu populistischen Parteien gesenkt werden könne, ist zu kurz gegriffen. Politische Meinungsbildung lässt sich nicht auf einfache Ursache-Wirkung-Operationen herunterbrechen.
Auch eine Flut an Ausstiegs-Tweets dürfte einen überzeugten Demokraten und Europäer nicht zum Brexit-Befürworter machen. Bots sind nicht fähig zu Rede und Gegenrede, sie machen keine konstruktiven Vorschläge, die der Komplexität politischer Realität gerecht werden. Sie argumentieren nicht. Viele teilen einfach die Nachrichten, die andere Nutzer zuvor gepostet haben. So vergrößern sie die Reichweite der Botschaften und erwecken den Anschein einer breiten Zustimmung. Oft verstärken sie also die sogenannten Filterblasen in den sozialen Medien - jenes Phänomen, dass Facebook und Twitter ihren Nutzern bevorzugt solche Inhalte zeigen, die mit deren eigenen Ansichten zu korrelieren scheinen.
Bots sind nicht Ursache, sondern nur Symptom der Unzufriedenheit
Politische Bots sind daher dort gefährlich, wo eine bestimmte Meinung und eine bestimmte argumentative Grundstruktur bereits vorhanden sind. Sie steigern dort die Zustimmung zu populistischen Thesen, wo diese ohnehin attraktiv sind. Aber sie krempeln nicht um. Es waren nicht Bots, die die EU verlassen wollten, sondern unzufriedene Menschen.
Politische Bots sind also ein Symptom und nicht die Ursache für eine tief sitzenden Unzufriedenheit, die wachsende Bevölkerungsteile anfällig macht für einfache Antworten, die inzwischen schon automatisiert von Computern hervorgebracht werden können. Die neuen Formen der Propaganda sind also vor allem eins: ein neuer Schauplatz, an dem jene alten Fragen wieder aufblitzen, die wir als Gesellschaft ohnehin beantworten müssen.