Süddeutsche Zeitung

Jigsaw "Conversation AI":Diese Google-Software soll Hass erkennen

Lesezeit: 2 min

Das könnte die Diskussionskultur im Netz verbessern. Doch Ironie und Sarkasmus überfordern das ach so intelligente System.

Von Michael Moorstedt

Das Jahr 2016 geht zu Ende, und ebenso wie sämtliche angeschlossene Rundfunkanstalten liefern auch die großen sozialen Netzwerke - Facebook, Youtube und so weiter - inzwischen standardmäßig einen Jahresrückblick. Hier wie dort gibt es eine Menge lustiger Meme und Pleiten-, Pech- und Pannenvideos zu sehen. Aber halt auch Trump, AfD und allgemeine Verrohung.

Das Internet kennt nun mal keine beschauliche Zeit, und so muss man sich erneut Hatespeech, Fake-News und Filterblase widmen. Diesmal aber mit einer frohen Botschaft. Denn für Ersteres, also die oft unerträglich gewordene Diskussionskultur im Netz, gibt es eine Lösung. Zumindest, wenn man Google glauben will.

Der konzerneigene Weltverbesserungs-Thinktank Jigsaw arbeitet seit einiger Zeit an einem System namens "Conversation AI", das schon bald entscheiden könnte, was Beleidigung ist und was nicht. Möglich werden soll das durch Machine-Learning, also selbstlernende Software, die im vergangenen Jahr im Silicon Valley zu so etwas wie einem Allheilmittel für sämtliche Belange der Gegenwart geworden ist. Intelligente Computer-Assistenten? Machine Learning. Universal-Übersetzer? Machine Learning. Autonome Autos? Ja, genau.

Wikipedia und New York Times liefern Lernmaterial

Damit die Maschinen lernen können, brauchen sie ausreichend Lernstoff. Deshalb hat sich Jigsaw von der New York Times eine Datenbank mit 17 Millionen Kommentaren geliehen, versehen mit Annotationen, welcher Kommentar abschätzig gemeint ist. Hinzu kommen mehrere Hunderttausend Textabschnitte aus Wikipedia-Debatten, die einer menschlichen Jury zur Abschätzung des Beleidigungsgrades vorgelegt wurden.

Indem es diese Datensätze nach und nach durcharbeitet, lernt das System, welche Art der Ansprache angemessen ist und welche nicht. Und so könnte es Google in Zukunft sozialen Netzwerken, aber auch Nachrichtenportalen ermöglichen, stets den guten Ton zu wahren. Inzwischen kann "Conversation AI" in den meisten Fällen mit einer 92-prozentigen Wahrscheinlichkeit genauso gut wie ein Mensch über die Tonalität eines Textes urteilen.

Der Algorithmus ist ironieresistent

Das klingt zunächst einmal nach einer guten Nachricht. Schließlich behalfen sich die großen sozialen Netzwerke bislang mit einer erstaunlich manuellen Methode, um ihre Foren und Kommentarspalten halbwegs zivilisiert zu halten: Über Subunternehmer werden ganze Heerscharen von schlecht bezahlten Cyber-Tagelöhnern angeheuert, die etwa auf den Philippinen jeden einzelnen verdächtigen Eintrag untersuchen. Üble Beleidigungen sind da noch das geringste Maß an Abscheulichkeit. Die Klick-Arbeiter bekommen täglich Kinderpornografie oder Hinrichtungsvideos zu sehen, viele berichten von Belastungsstörungen und Depressionen.

Bis die Software die menschlichen Prügelknaben ablösen kann, müssen allerdings noch ein paar Probleme gelöst werden. Denn bis jetzt kommt "Conversation AI" noch nicht so recht mit der Subtilität menschlicher Sprache klar. Noch zu häufig vermerkt die Software sarkastische Kommentare als verletzend. Dass "Du Arsch" nicht das Gleiche bedeutet wie "Verarschen kann ich mich selbst" will dem Computer einfach nicht einleuchten.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.3289796
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 12.12.2016
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.