bedeckt München 22°

Gegen Hass und Hetze:Die Etikette der KI

"Don't feed the troll", also "Geh auf Beiträge von Trollen grundsätzlich nicht ein" - das reicht schon lange nicht mehr. Das "Time Magazine" diagnostizierte, dass der Kampf gegen die Trolle im Internet verloren sei. Doch was kann man gegen die Online-Hasskultur tun?

(Foto: Youtube)

Benötigen wir eine smarte Technologie, die uns vor uns selber schützt? Aber natürlich benötigen wir sie. Sogar ganz dringend.

Ein Mann läuft durch einen lichten Wald. Er trägt eine alberne Mütze. Der Mann ist ein Star, sein Name ist Logan Paul. Auf Youtube bekommen 15 Millionen Menschen eine Benachrichtigung, sobald er ein neues Video hochlädt. In dem Video steht der Mann mit der albernen Mütze vor der Leiche eines Selbstmörders und reißt Witze. Es ist kaum auszuhalten. Bevor das Video von der Plattform entfernt wurde, war es bereits mehr als sechs Millionen Mal angesehen worden.

Da war das neue Jahr gerade mal ein paar Tage alt. Und all die Hoffnungen und offiziellen Absichtserklärungen und guten Vorsätze, die Firmenlenker und Nutzer sich gerade noch gemacht hatten und die besagten, dass es 2018 im Netz ziviler, ja vielleicht sogar freundlicher zugehen wird, schienen schneller obsolet zu sein als sämtliche Diät- und Abstinenzversprechen, die man in der Offline-Welt zum Jahreswechsel eben so abgibt.

Beinahe drei Viertel aller Internetnutzer haben im Internet Belästigungen erlebt, so eine Studie des Pew Research Center. Und das Time Magazine diagnostizierte, dass der Kampf gegen die Trolle im Internet verloren sei. Die Palette der Ausfälligkeiten ist mindestens so vielfältig wie die Nutzerschaft, die sie verfasst und die Plattformen, auf denen sie veröffentlicht werden: Von der Holocaust-Leugnung bis zur aus dem Ruder laufenden Politikerschelte, von geschmacklosen Witzen über so gut wie jede denkbare Organisation oder Lebensweise über aus Rache veröffentlichte Nacktfotos des Ex-Geliebten bis hin zu extremistischer Propaganda ist so gut wie alles vertreten.

Und dann ist noch das sogenannte Swatting. Jener "Online-Streich", bei dem es darum geht, anderen Menschen in ihrem Zuhause ein Polizei-Sondereinsatzkommando auf den Hals zu hetzen. Nur zwei Tage bevor Logan Paul sein Video aus dem Selbstmord-Wald hochlud, wurde ein junger Mann bei so einer Aktion erschossen.

Es gibt online einen Effekt, der die Hemmschwellen senkt

Wenn man sich John Perry Barlows berühmte "Unabhängigkeitserklärung des Cyberspace" aus dem Jahr 1996 ins Gedächtnis ruft, kann man sehen, wie weit wir uns heutzutage von der ursprünglichen Version eines gleichberechtigten Dialogs und eines zivilen Umgangs im Netz entfernt haben. "Wir erschaffen eine Welt", schrieb Barlow da, "die alle betreten können ohne Bevorzugung oder Vorurteil bezüglich Rasse, Wohlstand, militärischer Macht und Herkunft. Wir erschaffen eine Welt, in der jeder Einzelne an jedem Ort seine oder ihre Überzeugungen ausdrücken darf, wie individuell sie auch sind, ohne Angst davor, im Schweigen der Konformität aufgehen zu müssen." Und dann noch, ganz zum Schluss: "Wir werden im Cyberspace eine Zivilisation des Geistes erschaffen."

2017 sei ein Wendepunkt für die Tech-Branche gewesen, schrieb die New York Times unlängst. Lange Zeit ging die Erzählung in der Tech-Branche ungefähr so: Wir stellen die Technologie zur Verfügung, wie die Menschen sie nutzen, ist eine andere Geschichte. Es ist ein systemisches Problem. Das gängige Geschäftsmodell im sozialen Netz besteht darin, Öffentlichkeit herzustellen. Das belohnt die extreme Meinung, das sensationelle Video, den provokanten Tweet. So werden Aufmerksamkeit erzeugt und Daten generiert, die vermarktet werden können. Es hat gedauert, bis bei den Herren der Netzwerke die Erkenntnis gereift ist, dass sie Verantwortung dafür tragen, was auf ihren Portalen passiert, dass die Verrohung der Zustände online immer wieder und immer öfter Auswirkungen auf das Verhalten der Menschen offline hat - und auch, dass es so nicht weitergehen kann. Mark Zuckerberg höchstselbst hat sich für 2018 vorgenommen, auf seinem Netzwerk aufzuräumen.

"Fix Facebook" heißt das Ziel, und es ist wohl der ambitionierteste von vielen ehrgeizigen Vorsätzen, die er sich in den letzten Jahren so gesetzt hat. Jeden Tag eine Meile laufen, gehörte ebenso dazu, wie jede Woche ein neues Buch lesen.

Man müsse, schrieb Zuckerberg also, "die Nutzer vor Missbrauch und Hass schützen und dafür sorgen, dass die auf Facebook verbrachte Zeit eine gute Zeit ist." Die anderen großen Tech-Konzerne scheinen zu der gleichen Einsicht gekommen zu sein. Apple-Chef Tim Cook etwa sprach zuletzt davon, dass seine Firma eine "moralische Verantwortung" dafür trage, der gesellschaftlichen Spaltung entgegenzuwirken.

"Zuletzt lautete die Antwort der Tech-Firmen auf Beschwerden und Kritik, immer mehr Menschen einzusetzen", sagt die Informationswissenschaftlerin Sara Roberts, die an der Universität von Kalifornien zu den unterschiedlichen Ausprägungen der Online-Hasskultur forscht. 3000 neue Mitarbeiter bei Facebook, gar 10 000 neue Klick-Arbeiter bei Youtube sollen es richten. Aber wie können dreitausend Menschen knapp zwei Milliarden Facebook-Nutzer im Zaum halten? Wie können zehntausend Augenpaare für mehr Anstand auf einer Plattform sorgen, auf die pro Minute 400 Stunden Videomaterial geladen werden? Es ist klar, dass die Helfer Hilfe brauchen.

Was kann Maschinenlernen gegen Hass ausrichten? Was gegen Frust?

Eine mögliche Lösung sollen maschinelles Lernen und künstliche Intelligenz (KI) liefern. Eine Software, die entscheidet, welcher Text eine Beleidigung ist und welcher nicht, welche Bilder sozial akzeptabel und welche nicht. Facebook setzt auf ein "Deep Text" genanntes System, um die Postings seiner Nutzer nach fragwürdigen Inhalten zu durchforsten. Auch bei Youtube läuft die KI-Maschine bereits auf Hochtouren. 98 Prozent aller von der Plattform gelöschten Videos wurden ursprünglich von Machine-Learning-Systemen identifiziert, verkündete die Youtube-Chefin Susan Wojcicki vor Kurzem.

Auch Alphabets hauseigener Technik-Thinktank Jigsaw hat sich die Bekämpfung des "Online-Mobs" auf die Fahne geschrieben. Die "Conversation AI" genannte Initiative hat bereits ein Produkt namens Perspective veröffentlicht, große Medienhäuser wie die New York Times oder der Guardian gehören ebenso zu den ersten Kooperationspartnern wie die Wikimedia Foundation. Noch arbeiten die Systeme aber alles andere als perfekt. Die mannigfaltigen Anspielungen und semantischen Spitzfindigkeiten der menschlichen Sprache machen ihnen zu schaffen. Anders ausgedrückt: In unseren Beleidigungen sind wir noch zu kreativ für die Maschinen. Hier gibt es keine klaren Regeln wie etwa im Straßenverkehr oder in einer Partie Go. Um das zu ändern, hat Jigsaw vor wenigen Wochen einen eigenen Wettbewerb ausgerichtet, in dem mehr als tausend Teams angetreten sind, um zu beweisen, dass ihre Software die sensibelste ist. Ob der große Durchbruch gelingen wird, bleibt abzuwarten.

Doch es sind nicht nur die großen Konzerne, die an einer Lösung feilen. Rund um das Problem auf Youtube, Twitter, Facebook und natürlich auch dem Rest-Netz hat sich bereits ein ganzes Ökosystem von Start-ups mit naheliegenden Namen wie Sightengine, Picpurify oder Utopia Analytics gebildet, die sich ausschließlich der automatisierten Suche nach unangemessenen Bild- und Videoinhalten widmen. Ja es gibt sogar User, die versuchen, sich selbst die Problems annehmen. Twitter-Nutzer programmieren Browser-Erweiterungen und Plug-Ins, die Bot-Accounts erkennen und blocken, automatisch Hasssymbole erkennen und melden.

Doch egal, wie gut sie einmal noch arbeiten werden, die Säuberungs-KIs bekämpfen nur die Symptome. Was kann Machine Learning gegen den Hass anrichten? Was gegen Frust oder schlicht gegen schlechte Manieren und all die anderen Gründe, die dazu führen, dass sich Menschen im Internet aufführen wie Berserker. In der Psychologie nennt man das den "Online Disinhibition Effect". Im Schutz der vermeintlichen Anonymität des Internet sei die Hemmschwelle zur Diffamierung demnach weitaus geringer als im realen, analogen Leben. Es scheint fast so, als wären die Menschen einfach noch nicht bereit für die Zivilisation des Geistes, die John Perry Barlow vorschwebte. Bis es so weit ist, brauchen wir also Technologie, um uns vor uns selbst zu schützen.