Süddeutsche Zeitung

Hass im Netz:Wenn Algorithmen diskriminieren

  • Bundesjustizministerin Christine Lambrecht fordert für soziale Netzwerke eine Anzeigepflicht: Morddrohungen, Volksverhetzung oder die Verwendung von Nazisymbolen sollen künftig zuverlässig an Strafverfolgungsbehörden gemeldet werden.
  • Eine Sichtung aller Kommentare ist jedoch aufgrund deren großer Menge so gut wie unmöglich.
  • Ein Algorithmus könnte der Masse an Kommentaren zwar Herr werden - fraglich ist aber, ob KI-Systeme imstande sind, Hass und Meinung zu unterscheiden.

Von Adrian Lobe

Die jüngsten Anschläge von Halle, El Paso und Christchurch haben ein Schlaglicht auf Onlineplattformen wie 8chan geworfen, wo sich auch Rechtsradikale austauschen und gegen religiöse oder ethnische Minderheiten hetzen. Aber auch auf der Jedermann-Plattform Facebook kursieren Hass und Hetze: Die Grünenpolitikerin Renate Künast wurde dort als "Stück Scheiße" diffamiert, was das Landgericht Berlin als zulässige Meinungsäußerung beurteilte.

Die Landeszentrale für neue Medien und das bayerische Justizministerium haben nun einen Kooperationsvertrag geschlossen, der es Medienunternehmen ermöglichen soll, Hasskommentare im Internet künftig schneller an die Behörden zu melden. Mithilfe eines Online-Formulars und einer Cloud-Lösung können Redaktionen Screenshots vermeintlicher Straftaten an die Staatsanwaltschaft übermitteln und Kommentare zur Anzeige bringen.

Bundesjustizministerin Christine Lambrecht (SPD) will derweil Provider wie Facebook gesetzlich verpflichten, Offizialdelikte wie Morddrohungen, Volksverhetzung oder die Verwendung von Nazisymbolen an Strafverfolgungsbehörden zu melden. Eine Anzeigepflicht soll im Netzwerkdurchsetzungsgesetz verankert werden.

Die Frage ist nur, wie eine solche Anzeigepflicht technisch umzusetzen wäre. Auf Facebook werden weltweit eine halbe Million Kommentare geschrieben - pro Minute. Eine manuelle Sichtung des Materials ist schier unmöglich, zumal eine sorgsame Prüfung des Sachverhalts Stunden, manchmal Tage in Anspruch nehmen kann. Facebook-Chef Mark Zuckerberg verkündete vor dem US-Kongress 2018 großspurig, sein Konzern werde "in fünf bis zehn Jahren" KI-Systeme haben, die Hassrede automatisiert detektieren können.

Ob man einen Präsidenten "sackdoof, feige und verklemmt" nennen darf, war umstritten

Die Frage ist nur, wie eine Maschine zwischen einem schutzwürdigen Werturteil und einer Tatsachenbehauptung, die nicht von der Meinungsfreiheit nach Artikel 5 des Grundgesetzes geschützt ist, differenzieren soll - wo schon der Mensch Auslegungsprobleme hat und in seitenlangen Kommentaren und Gerichtsurteilen um eine in der juristischen Praxis anwendbare Abgrenzung ringt. Man kann Computern Regeln einprogrammieren, etwa dass sie Schimpfwörter identifizieren. Doch eine Programmiervorschrift ist eben keine gesetzliche Vorschrift.

Die Frage, ob eine Äußerung den Tatbestand der Beleidigung erfüllt, ist immer eine Einzelfallbewertung, die vernünftiger Abwägung bedarf. Und die in jedem Rechtsraum unterschiedlich bewertet wird. Man kann also nicht, wie Zuckerberg glaubt, eine General-KI programmieren, die Hasskommentare in allen Ländern verlässlich löscht. Der Ausdruck "rassistischer Rattenfänger" kann durchaus eine schutzwürdige Meinungsäußerung darstellen, wenn es um die Sache und nicht um persönliche Diffamierung geht. Selbst in Jan Böhmermanns kontroversem Schmähgedicht, in dem er den türkischen Staatspräsidenten Erdoğan mitunter als "sackdoof, feige und verklemmt" titulierte, war unter Rechtswissenschaftlern umstritten, ob hier eine zulässige Meinungsäußerung oder eine unzulässige Schmähkritik vorliegt. Algorithmen besitzen kein Kontextwissen. Sie können solche Präzedenzfälle nicht lösen wie eine mathematische Gleichung. Maschinell lernende Algorithmen operieren nach statistischen Häufigkeiten und Wahrscheinlichkeiten, mit denen linguistische Muster in Datenmengen erkannt werden.

Den Algorithmus mit einer "Liebesattacke" austricksen

Nach Recherchen der Investigativ-Plattform The Intercept hat Facebook "geschützte Kategorien" wie Gender, Rasse und Religion sowie ungeschützte Kategorien gebildet, die den tausenden menschlichen Prüfern als Handlungsanleitung für die Identifizierung von Hasskommentaren an die Hand gegeben wurden. Der Satz "Wir sollten alle Muslime ermorden" ist in dieser Logik ein Fall von Hassrede. Der Satz "Wir sollten alle armen Leute ermorden" dagegen nicht. Weil "arme Leute" keine geschützte Kategorie darstellt. Wenn nun KI-Systeme mit den - stereotypen und sprachphilosophisch schwierigen - Regeln trainiert werden, würden Hassparolen durchgehen und Werturteile zensiert.

Wie ungeeignet KI-Systeme für die Bewertung juristischer Sachverhalte sind, belegen Forschungen finnischer Wissenschaftler. Demnach reicht es aus, bei Hasskommentaren am Ende ein "love" hinzuzufügen, um algorithmische Systeme auszutricksen. Forscher sprechen von einer subversiven "Liebesattacke". Auch Rechtschreibfehler oder Leetspeak, ein Code von Netzaktivisten, bei dem Buchstaben durch ähnliche Sonderzeichen oder Zahlen ersetzt werden (zum Beispiel "c00l" für "cool"), leiten Maschinen in die Irre.

Tweets von Afroamerikanern werden von KI oft als beleidigend bewertet

Und bisweilen sind Algorithmen offen diskriminierend: Laut einer Studie der University of Washington werden im amerikanischen Englisch Tweets, die von Afroamerikanern abgesetzt werden, von KI-Modellen überdurchschnittlich häufig als beleidigend und schädlich qualifiziert. Die Datensätze sind rassistisch verzerrt, weil die Programmierer beim Training der Google-KI Perspective - womöglich unbeabsichtigt - den Soziolekt von Afroamerikanern als "toxisch" klassifizierten. Das heißt, die Vorgaben der Entwickler setzen sich in den Modellen fort - mit fatalen Folgen. Die automatische Entfernung von Inhalten, warnen die Wissenschaftler in ihrem Paper, drohe die ohnehin schon marginalisierten Stimmen zu unterdrücken.

Durch die Sprachregeln entsteht eine zunehmend hermetische Klubatmosphäre, wo andere Stimmen, Erzählweisen und Ausdrucksformen ausgeschlossen sind. Droht die Dystopie einer Zwei-Klassen-Öffentlichkeit, bei der das Recht auf Meinungsfreiheit von Hautfarbe und Herkunft abhängt? Die Rufe nach einer stärkeren Regulierung der Plattformökonomie werden jedenfalls lauter.

Die Datenethikkommission der Bundesregierung fordert umfassende Informationspflichten bei der Verarbeitung von Daten, eine Aufsichtsbehörde auf Bundesebene sowie eine neue EU-Verordnung für Algorithmen. "Den nationalen Gesetzgeber trifft die verfassungsrechtliche Pflicht, die Demokratie vor den Gefahren für die freie demokratische und plurale Meinungsbildung, die von Anbietern mit Torwächterfunktion ausgehen, durch Etablierung einer positiven Medienordnung zu schützen", heißt es in einem aktuellen Gutachten. Algorithmen sind in diesem Fall nicht die Lösung, sondern Teil des Problems.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4652772
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 24.10.2019/qli
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.