Süddeutsche Zeitung

KI im Journalismus:Zu schnell für die Kontrolle

Lesezeit: 4 min

Von Adrian Lobe

Am 21. Juni 2017 meldete die Los Angeles Times ein Erdbeben. Stärke 6,8 um 4.52 Uhr, zehn Meilen vor Santa Barbara im Pazifik. Als der Alarm einging, dauerte es nur eine Minute, bis die Zeitung eine Eilmeldung und einen Tweet an eine Millionen Follower absendete. Rekordzeit. Eigentlich. Denn das Erdbeben hatte sich bereits im Jahre 1925 ereignet.

Die Eilmeldung war nicht von einem Menschen, sondern von einer Maschine verfasst worden. Seit 2014 setzt das Blatt ein Computerprogramm namens Quakebot ein, das anhand von Daten des U.S. Geological Survey automatisiert Erdbebenmeldungen verfasst. In diesem Fall aber hatte der Roboter eine Meldung aus dem Archiv aufgekocht und als Aktualität dargestellt. Der Grund dafür war, dass Wissenschaftler des California Institute of Technology den Fehlalarm ausgelöst hatten, als sie historische Erdbebendaten aktualisieren wollten.

Die Redaktion der LA Times, die an diesem Tag im Jahr 2017 Frühdienst hatte, bemerkte, dass es auf Twitter keine Reaktionen auf das Erdbeben gab. Wenige Minuten später hatte die Zeitung die Meldung sowie den Tweet gelöscht - mit dem Hinweis, dass es sich um eine fehlerhafte Information handle. Schnell wurden auf dem Kurznachrichtendienst Vorwürfe laut, der Roboter würde Fake News verbreiten.

Der Vorfall zeigt, wie wichtig korrekte Daten im automatisierten Journalismus sind. Und er wirft die immer drängendere Frage auf, wer in solchen Fällen eigentlich die Verantwortung trägt. Denn immer mehr Redaktionen setzen auf automatisierte Schreibprogramme, auf "Roboterjournalisten". Die Nachrichtenagentur AP publiziert computergenerierte Finanzberichte und Info-Grafiken. Die Gemeinschaftsredaktion von Stuttgarter Zeitung und Stuttgarter Nachrichten hat einen Feinstaubradar entwickelt, der auf Grundlage von Messwerten automatisiert Feinstaubberichte erstellt. Und bei der Schweizer Nachrichtenagentur Keystone-SDA kommt ein Schreibroboter namens Lena zum Einsatz, der unter anderem Abstimmungsdaten des Bundesamtes für Statistik (BFS) analysiert und daraus automatisiert Meldungen generiert.

Das Versprechen des Computerjournalismus ist, dass er Kapazitäten in den Redaktionen freisetzt: Journalisten, so die These, müssten nicht mehr unter Zeitdruck Meldungen schreiben oder für schmales Zeilenhonorar vom Bezirksligaspiel berichten, sondern hätten mehr Zeit für hintergründigere Stücke und investigative Recherchen. Doch dabei sind Schreibprogramme immer nur so gut wie ihre Programmierung und Datengrundlage. Angesichts des Ergebnisses - allein die AP publiziert pro Quartal über 3000 Meldungen - wächst die Gefahr für Fehlerquellen und damit für Falschinformationen.

Verlag, Softwarehersteller, Datenlieferant - die Kette der Verantwortlichen wird länger

Die Agentur AP hat 2015 eine teilautomatisierte Meldung veröffentlicht, die fehlerhafte Informationen über die Umsätze des Streaminganbieters Netflix enthielt. In dem Finanzbericht hieß es, die Ergebnisse hätten die Erwartungen der Wall Street nicht erfüllt. Die Analysten hätten mit 32 Cent pro Aktie gerechnet. Was in der Meldung nicht erwähnt wurde, ist die Tatsache, dass die Stammaktien vorher gesplittet worden waren. Die Erwartungen der Analysten sind also eigentlich sogar übertroffen worden. Der Grund für die fehlerhafte Analyse war womöglich, dass die Daten aus einer Datenquelle extrahiert wurden, die den Aktiensplit nicht berücksichtigt hatte.

AP-Manager Lou Ferrara sagte damals, ob ein menschlicher Redakteur falsche Zahle eingebe oder eine Software falsche Daten in die Textbausteine einspeise, mache im Ergebnis keinen Unterschied. Das mag faktisch richtig sein. Rechtlich macht es jedoch einen Unterschied, ob ein Redakteur oder ein Roboter einen Fehler macht. Die Frage ist: Wer haftet bei einem Fehler der Textsoftware? Der Verlag? Der Softwarehersteller? Oder der Datenlieferant? Das ist nicht bloß eine theoretische Frage, sondern eine von praktischer Relevanz. Durch die Meldung, die die Qualität einer Gewinnwarnung hatte, hätte Netflix ein wirtschaftlicher Schaden entstehen können. Auch bei der irrtümlichen Erdbebenwarnung hätten Touristen Hotelreservierungen stornieren oder Fluggesellschaften Flüge annullieren können.

Der US-Rechtswissenschaftler Seth Lewis kommt in einem aktuellen Gutachten zu dem Ergebnis, dass Verlage für Schreibprogramme prinzipiell haftbar sind. Sie könnten sich nicht auf das Argument von Google berufen, man sei lediglich ein Nachrichtenaggregator. Die Prüfpflichten nehmen angesichts der Komplexität der Nachrichtenkette demnach deutlich zu.

Der Kommunikations- und Medienwissenschaftler Andreas Graefe hat in einer Untersuchung für das Tow Center 2017 davor gewarnt, dass die Grenzen der Automatisierung erreicht seien. Die Fehlerrate in voll automatisierten Prozessen sei groß, die Datenextraktion von Webseiten extrem fehleranfällig. Problematisch sei vor allem, wie man bei automatisierter Wahlkampfberichterstattung statistische Häufigkeiten in Sprache übersetzt.

In der Wahlkampfberichterstattung kann ein Schreibautomat leicht tendentiös werden

Wie soll man den Abstand zwischen beiden Kandidaten in Worte fassen, ohne Partei zu ergreifen? Wann kann man von einem Trend in den Daten sprechen? Wann hat ein Kandidat ein Momentum? Führt man mit 52 Prozent Zustimmung bereits haushoch in den Umfragen?

Ein Schreibautomat kann hier leicht tendenziös werden. "Während solche Fragen für einen menschlichen Journalisten leicht zu beantworten sind, sind sie schwer zu operationalisieren und in vordefinierte Regeln zu setzen", konstatiert Graefe in seiner Analyse.

Roboterjournalisten arbeiten nicht nur in Redaktionen, sondern auch an Börsen. Dort werden seit einiger Zeit "nachrichtenlesende Algorithmen" eingesetzt, die Überschriften von Meldungen oder Tweets durchforsten, um Marktsignale abzuleiten. Rund um die Brexit-Abstimmung im britischen Parlament produzierten Agenturen so viele Headlines, dass die Computer diese Datenmenge gar nicht verarbeiten konnten. Die Automaten waren mit der Nachrichtenlage schlicht überfordert.

Was, wenn aufgrund von automatisierten Falschmeldungen Aktienkurse einbrechen?

Kaum vorstellbar, was passieren würde, wenn ein Nachrichtenscanner an der Börse die Falschmeldung eines Schreibroboters verarbeiten würde - und infolgedessen der Aktienkurs einbricht. Im Hochfrequenzhandel führen sogenannte Algo-Trader Transaktionen in Mikrosekunden aus. So schnell, wie diese Maschinen operieren, kann keine Meldung korrigiert werden. Wenn nur noch Maschinen Maschinen informieren, könnte das Nachrichtenwesen zu einem kybernetischen System verkommen, das sich automatisch reguliert und dessen Prozesse unabhängig von menschlichen Kontrolleuren ablaufen. Die Frage ist: Gibt es einen Löschknopf für Notfälle?

Der KI-gestützte Textgenerator GPT-2, der anhand von Trainingsdaten fiktive Meldungen schrieb, wurde von der Entwicklerorganisation Open AI als so gefährlich eingestuft, dass das Tool erst gar nicht veröffentlicht wurde. Es ist nur eine grobe Vorahnung dessen, wie die Spielregeln einer deliberativen Demokratie durch künstliche Agenten ausgesetzt werden. Noch ist es den menschlichen Redakteuren immer gelungen, die fehlerhafte Information aus der Welt zu schaffen. Aber was passiert beim nächsten Mal?

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4539688
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 26.07.2019
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.