Der US-Amerikaner Jonathon Morgan ist Daten-Wissenschaftler, sein Fachgebiet ist gewalttätiger Extremismus. Er hat unter anderem 2015 die Twitter-Strategie der Terrororganisation Islamischer Staat (IS) untersucht. Im Interview erzählt er von Gleichschaltung und terroristischen Filterblasen im Internet, und fordert mehr Engagement von den großen Plattformen.
Sie analysieren, wie Neonazis oder Dschihadisten online kommunizieren. Wie funktioniert das?
Jonathon Morgan: Es ist wie im richtigen Leben. Menschen, die Schaden anrichten, haben bestimmte Verhaltensweisen - online und in der realen Welt. Wir nutzen Algorithmen und Datenanalyse, um diese Muster zu finden. So identifizieren wir Gruppen, die radikale Ideologien annehmen, anhand ihrer Sprache. Extremisten vertreten per Definition extreme Ansichten, sprechen eine extreme Sprache. Das können wir messen.
Haben Sie ein Beispiel?
In einem typischen Zeitungsartikel ist das Wort "jüdisch" statistisch vergleichbar mit Worten wie "christlich" oder "muslimisch". In rechtsextremen Tweets taucht "jüdisch" in Kontexten auf, wo es mit Worten wie "Kommunist", "homosexuell", "anti-weiß" oder "satanisch" in Verbindung gebracht wird. Vorurteile und gewalttätige Rhetorik gehen online Hand in Hand.
Was haben Sie über solche Gruppen herausgefunden?
Extremistische Gruppen agieren vollkommen anders als Durchschnittsmenschen in den sozialen Medien. Wir chatten typischerweise mit Freunden, teilen Artikel und sprechen über Themen vom Mittagessen bis hin zu unserem Lieblingssportverein. Das ist normales Verhalten. Im Fall von Extremisten ist das fundamental anders. Sie fokussieren auf Ziele, bewegen sich koordiniert und sprechen über dieselben Themen, mit derselben Sprache. Sie benehmen sich wie ein Organismus oder wie ein Schwarm.
Schön und gut. Aber was hilft es, solche Hassbotschaften online zu analysieren?
Es ist wichtig, zu wissen, dass viele Islamisten, die aus dem Westen für den IS in den Dschihad zogen, sich online radikalisiert haben. Es gibt eine Beziehung zwischen dem Konsumieren extremistischer Inhalte im Netz und der Übernahme dieser Ideologien. Wenn wir herausfinden, wo extremistische Inhalte kursieren, hilft uns das, Menschen aufzuspüren, die vor einer vielleicht in Gewalt mündenden Radikalisierung stehen.
Sind Onlinegruppen eine Brutstätte für Terroristen?
Ja. Es gibt einen Echokammer-Effekt, der von den sozialen Medien noch verstärkt wird. Internetkonzerne haben ein klares Interesse. Das Nutzererlebnis soll ihre Kunden glücklich machen. Und wir sind dann am glücklichsten, wenn wir uns zu Menschen gesellen, mit denen wir uns einig sind und denen wir gerne zuhören, im Guten wie im Schlechten. Die Funktionsweise von Online-Communitys verstärkt ihre Isoliertheit. Im Fall von Extremisten ist dieselbe verdrehte Weltsicht in allen Kommunkationsformen zu finden: in der Sprache, die sie hören, und in den Inhalten, die sie konsumieren. Da wird es schwierig, eine realistische Perspektive zu behalten.
Weil einem niemand widerspricht.
Genau. Dabei zeigt die Forschung, dass man etwas bewirken kann, wenn man einschreitet und sich gegenüber solchen Menschen einmischt. Google hat damit experimentiert, Leute ins Visier zu nehmen, die dschihadistische Videos auf Youtube suchten. Sie bekamen Videoclips eingespielt, die den IS-Mythos entzaubern. Die Untersuchung konnte nachweisen, dass die Einspieler auf Interesse trafen. Das zeigt: Wenn Sie den Erzählweisen von Extremisten etwas entgegensetzen wollen, müssen Sie gefährdete Menschen gezielt erreichen und eine Dosis Realität in ihre Onlineerfahrung hineinbekommen.
Das amerikanische Außenministerium bekämpft Dschihadisten online auf eigene Weise - mit einem Twitter-Account, der IS-Unterstützer konfrontiert und ihnen ins Wort fällt. Was halten Sie davon?
Da ist zwar ein kompetentes Team am Werk, aber ich glaube, es ist der falsche Ansatz, Terroristen zu trollen. Es ist eine Sache, gezielt auf Individuen zuzugehen, aber eine andere, gegen sie zu polemisieren. Es wäre wichtiger, authentisch und empathisch zu erzählen. Zum Beispiel die Aussagen von Ex-Dschihadisten, die desillusioniert aus Syrien zurückgekehrt sind und andere davor warnen wollen, denselben Fehler zu machen. "Der Islamische Staat hat mich belogen und belügt dich" - das ist eine viel stärkere Botschaft. Und es hat sich immer wieder gezeigt, dass das mehr bewirkt, als sich über jemanden lustig zu machen.
Sie haben 2015 in einer Studie die Twitterstrategie des Islamischen Staats untersucht. Wie twittern Dschihadisten?
Wir fanden heraus, dass es eine Gruppe von rund 40 000 Konten auf Twitter gab, die den Islamischen Staat unterstützten, aber nur etwa 2000 sehr aktive Nutzer, welche die gesamten Aktivitäten befeuerten. Diese reagierten dafür sehr zielgerichtet. Wenn ein Konto gelöscht wurde, trat innerhalb von Stunden ein neues an seine Stelle und etablierte sich sofort wieder innerhalb der Gemeinschaft, mit denselben Botschaften wie zuvor. Der IS nutzte die Funktionsweise von Twitter gezielt aus, um seine Botschaften zu verbreiten, mit einem hohen Grad an Koordination. Wir fanden auch Kurioses heraus: Viele IS-Unterstützer ließen die Location-Funktion aktiviert, auch wenn sie vom Schlachtfeld in Syrien aus twitterten. Die Ortsangaben in diesen Tweets verrieten taktisch wichtige Informationen - gerade für ihre militärischen Gegner.
Twitter hat inzwischen viele IS-Konten blockiert. Wie ist die Situation jetzt?
Kurz nach der Studie, vielleicht auch unter Behördendruck, begann Twitter aggressiv, IS-Konten zu löschen. Inzwischen gibt es nur noch etwa 500 aktive Konten. Gleichzeitig agieren aber andere extremistische Gruppen auf Twitter ziemlich ungestraft.
Sie sprechen die Neonazi-Gruppierungen an, die Sie ebenfalls untersucht haben.
Ja, die Aktivitäten von rechtsextremen weißen Nationalisten in den sozialen Medien haben in den USA massiv zugenommen. Leute aus diesen Kreisen nutzen eine Sprache, die immer extremer und von Gewalt geprägt wird. Das sollte uns Sorgen machen, denn solche Gruppen bringen erfahrungsgemäß gewaltbereite Personen hervor. Das passt zum Trend, dass in den USA die Zahl der gewalttätigen Übergriffe auf Muslime, Paare unterschiedlicher Hautfarbe, Homo- oder Transsexuelle zugenommen hat. Wenn online so viele extremistische Inhalte verbreitet werden, dass diese dadurch normalisiert werden, hat das reale Folgen in der Offline-Welt.
Was kann man tun gegen problematische Onlinediskurse?
Es ist klar, dass Social-Media-Plattformen in der Lage sind, solche Inhalte zu löschen. Dass Twitter es im vergangenen Jahr geschafft hat, IS-Accounts zu entfernen, beweist das. Diese Gruppen in die dunkelsten, isoliertesten Ecken des Netzes zu treiben, sorgt dafür, dass weniger Nutzer über radikale, gewaltverherrlichende Inhalte stolpern. Allerdings: Wer sich radikalisiert, hat meist persönlichen Kontakt mit jemandem, der seine Ideologie teilt - Freunde oder Familienmitglieder. Und Personen, die radikale Inhalte suchen, finden diese trotzdem, an anderer Stelle.
Und die Extremisten bleiben zunehmend unter sich.
Ja. Es wird schwieriger, mit gefährdeten Leuten zu interagieren, um sie von einer Radikalisierung abzubringen. Sie kommunizieren mit verschlüsselten Apps wie Telegram, und es ist sogar für Profis fast unmöglich, in diese geschlossenen Gruppen vorzudringen. Klar ist, dass es im Interesse Twitters ist, extremistische Inhalte loszuwerden - es schützt ihr Produkt. Aber das Problem löst es kaum.
Was wäre denn die Verantwortung der Internetkonzerne?
Twitter und Facebook wollen sich als führende Plattform für einen öffentlichen Diskurs etablieren. Wenn sie diese Rolle wollen, müssen sie auch Bürgerpflichten wahrnehmen. Wir dürfen Ähnliches von ihnen erwarten wie von einer Regierung. Konkret heisst dies, sie müssen mit Experten und Behörden zusammenarbeiten. Auch wenn sie das als Technologiefirmen nervös macht. Besonders, weil es hier nicht darum geht, Extremisten mit Namen, Identitäten und IP-Adressen auszuliefern. Es ginge vielmehr darum, Experten zu helfen, mit Radikalisierungsgefährdeten in Kontakt zu kommen und ihr Weltbild zu ändern.
Internetkonzerne argumentieren oft damit, dass sie möglichst wenig Zensur ausüben wollen.
Ein Argument lautet: Als Unternehmen sollten sie ihre Plattformen nach eigenem Gutdünken gestalten. Ihre Verantwortung bestehe bloß darin, ihren Nutzern eine gute Kundenerfahrung zu liefern. Die Firmen nehmen dann auch nicht wirklich Verantwortung wahr, wenn sie Regeln durchsetzen, sondern reagieren bloß auf schlechte Presse, eine Bedrohung für ihr Wachstum. Ich finde, diese Firmen können nicht einfach den Kopf in den Sand stecken und sagen: "Als Firmen dürfen wir tun und lassen, was wir wollen." Hier muss sich auch die Gesellschaft einmischen: Wie weit wollen wir zulassen, dass Extremisten Dinge publizieren, die wir anstößig finden? Und wo liegt die Grenze zwischen anstößigen Aussagen und etwas, das zu Gewalt führt?
Wie beurteilen Sie das Verhalten der Firmen bisher?
Sie machen keinen guten Job. Wie sie ihre Plattformen moderieren, ist beliebig und nur dem Eigeninteresse geschuldet. Sie machen viel falsch. Facebooks Zensur eines ikonischen Vietnamfotos im September ist nur ein Beispiel von vielen. In der Türkei wurden prominente Bürgeraktivisten auf Geheiß der Erdogan-Regierung gesperrt. Und in den USA und Europa dürfen Gruppen, die zu Gewalt gegen Minderheiten aufrufen, unbehelligt weitermachen. Es geht gar nicht darum, ob wir erfolgreich sein können. Wir würden uns wohl nicht einmal einig werden, was erfolgreich sein hieße. Wichtig wäre, dass diese Unternehmen versuchen, es besser zu machen. Und dass wir sie zur Rechenschaft ziehen für ihre Fehler.
Dieser Artikel erschien zuerst im Tages-Anzeiger vom 11.10.2016