bedeckt München

Künstliche Intelligenz:Die rote Linie

(Foto: Imago/Collage: Christian Tönsmann)

Im Journalismus kann künstliche Intelligenz in bestimmten Bereichen vieles verbessern - wenn sie richtig benutzt und kontrolliert wird.

Von Andrian Kreye

Es stimmt schon, dass man Robotern nicht über den Weg trauen sollte. Und schon gar nicht ihren Hirnen. Spricht man als Journalist mit seinem Publikum über künstliche Intelligenz (KI), sind die Fragen nach der Verwendung solcher Automatisierungstechnologien in den Medien deswegen von Misstrauen geprägt. Es wäre also kein Wunder, wenn die Erkenntnisse des jüngsten Berichts des Digital News Project der Oxford University und des Reuters Institute for the Study of Journalism für Unruhe sorgen. Denn die sagen nicht nur, dass über drei Viertel aller Medienunternehmer und Mitglieder von Chefredaktionen die Covid-Krise als Beschleuniger der Digitalisierung verstehen. 69 Prozent der befragten Entscheidungsträger sehen künstliche Intelligenz als wichtigsten Treiber für Innovation im Journalismus. Manche Firmen sind beim Einsatz von KI in der journalistischen Arbeit auch schon relativ weit. Bloomberg News gibt zum Beispiel an, rund ein Drittel seiner Nachrichten mithilfe von KI zu generieren und zu verbreiten. Auch die Süddeutsche Zeitung verwendet solche Technologien, wenn auch nicht in diesem Ausmaß.

Für Leser-, Nutzer-, Hörer- und Zuseherschaften klingt KI zunächst einmal nach Manipulation der Nachrichtenströme durch die KI-Algorithmen der sozialen Netzwerke, Verfälschung der Faktenlage durch Fake News, Hetze durch Twitterbots, die Täuschbilder und -videos der Deepfakes. Stimmt auch alles. Aber wie bei den meisten Technologien kommt es darauf an, wer sie für welche Zwecke einsetzt. Und der Journalismus gehört eigentlich zu den "Best Practice"-Beispielen, weil er bisher eine optimale Vorgehensweise im Umgang mit KI vorgeführt hat. Bevor es gleich ein "Aber" gibt, weil es bei einer so leistungsstarken Technologie wie künstlicher Intelligenz immer ein Aber gibt, ein paar exemplarische Fälle, wie KI so eingesetzt werden kann, dass Ethik und Vernunft nicht auf der Strecke bleiben.

Drei Minuten nach dem Erdbeben ein Bericht? Da ist der Computer schneller als der Mensch

Der Reuters-Bericht nennt ein paar davon. Das peruanische Portal für investigativen Journalismus Ojo Público programmierte zum Beispiel eine Suchmaschine, die herausfinden kann, wie korrupt eine Firma ist. Ein Skandal, den diese KI aufdeckte: der peruanische Molkereikonzern Niisa war bei Aufträgen im Gesamtwert von 70 Millionen Dollar in 90 Prozent der Fälle der einzige Bewerber. Die BBC entwickelte einen Chatbot (also einen automatisierten Gesprächspartner), der die unzähligen Nutzerfragen zum Coronavirus auf der Basis seriöser Informationen automatisierte. Andere Medienfirmen nutzen KI, um das Ausspielen von Inhalten auf Interessen und Bedürfnisse zuzuschneiden, auf ihren Webseiten potenzielle Abonnenten zu identifizieren oder ihre Archive zu sortieren und zugänglicher zu machen.

Es gibt auch sogenannten Robojournalismus. Das sind Texte, die ohne menschliche Hilfe von KI-Anwendungen verfasst werden. Allerdings sind die Themenbereiche sehr begrenzt. Letztlich funktioniert das nur mit Geschichten, die auf Zahlen basieren. Wirtschaftsmeldungen zum Beispiel, Sport- und Wahlergebnisse. Die Süddeutsche Zeitung nutzte so eine Technologie zum Beispiel bei der Berichterstattung zur bayerischen Landtagswahl im Oktober 2018. Auf der Hompage sz.de gab es eine Unterseite, die die Ergebnisse sämtlicher 91 Wahlkreise im Freistaat analysierte. Das wäre für die Reporter und Redakteure nicht zu stemmen, schon gar nicht in der Geschwindigkeit, die das Publikum in einer Wahlnacht erwartet. Dafür können sich die Journalisten dann auf die gezielte Berichterstattung vor Ort, auf die politische Tiefenanalyse und Kommentierung konzentrieren. Denn schlichte Zahlenwerte auswerten und zwei oder drei Standardsätze dazu schreiben, schafft auch ein Computer.

Im investigativen Journalismus fallen oft ungeheure Datenmengen an, auch dabei hilft KI

In anderen Fällen geht es aber auch um Geschwindigkeit. Bloomberg News lässt KIs zum Beispiel Nachrichten über Quartalsberichte verfassen, die innerhalb von Sekunden in die Verteiler gehen. Das ist ein Wissensvorsprung, den Bloomberg-Nutzer brauchen, weil solche Berichte auch Börsenkurse beeinflussen. Ein menschlicher Reporter bräuchte für so einen Text eine Viertelstunde oder mehr.

Die Los Angeles Times wiederum hat eine KI namens Quakebot entwickelt, die aus seismografischen Daten Nachrichten über Erdbeben generieren kann. Berühmt wurde der Algorithmus, weil er 2014 einen Bericht über ein kalifornisches Beben schon drei Minuten nach dem Ende der Erschütterungen lieferte. Wobei man zur Beruhigung des Publikums hinzufügen muss, dass bei allen Nachrichtenorganisationen Menschen die Arbeit ihrer Roboreporter zumindest in Stichproben noch einmal nachprüfen.

Ein anderes Feld, auf dem künstliche Intelligenz Dinge leisten kann, die Menschen alleine nicht schaffen würden, ist der investigative Journalismus. Bei Enthüllungen wie den Panama Papers oder zuletzt Open Lux ist die Menge der Dokumente enorm. Die Recherche über die Steuervermeidung wegen der Finanzpolitik Luxemburgs beruhte zum Beispiel auf drei Millionen Dokumenten. Die SZ beschäftigt für solche Projekte eine eigene Abteilung für Datenjournalismus, die einen ähnlichen Stellenwert hat wie etwa die Sport- oder die Kulturredaktion. Sie entwickelt eigene Programme, die solche Datenpakete durchsuchen können.

Und dann gibt es noch die Algorithmen, die den "Bias" in Medienorganisationen ermitteln, also versteckte Tendenzen und Vorurteile. Das kann der unbewusste Rassismus in Beiträgen genauso sein wie die ungleiche Verteilung von Themen. Das Aijo Project der London School of Economics and Political Science hat so eine Methodik entwickelt, die schon acht große Nachrichtenorganisationen wie Reuters, Agence France Presse und die Deutsche Welle einsetzen.

Für viele Unternehmen ist künstliche Intelligenz der Schlüssel zum Personalabbau

Viele der einfacheren Anwendungen gehören inzwischen so fest zum journalistischen Alltag, dass sie gar nicht mehr KI genannt werden. Die Auswertung von Nachrichtenströmen. Der Beschnitt von Bildern. Die Bewertung von Leserinteressen. All diese Projekte sind jedoch Beispiele für den ethisch vernünftigen Einsatz von künstlicher Intelligenz im Journalismus. Denn beim Einsatz von KI gibt es eine klare rote Linie. Wenn eine künstliche Intelligenz eine Aufgabe besser oder schneller als ein Mensch erledigen kann, wenn sie ihn von Routine- oder Schwerstarbeiten befreit, ist sie eine Ergänzung seiner Fähigkeiten. Wenn sie ihn ersetzt, ist sie ein Jobkiller.

Es heißt natürlich gerne, dass sich der Mensch ohne die Fron der Routine anspruchsvolleren Aufgaben widmen kann, die in der Regel auch besser bezahlt sind. Das sei der eigentliche Nutzen der Automatisierung. Ein Ingenieur verdient mehr als ein Programmierer, der mehr als ein Fabrikarbeiter bekommt, der wiederum mehr als ein Landarbeiter verdient. Das sind so wunderbare "Big Picture"-Formeln, mit denen man sich den Fortschritt schönrechnen kann. Es gibt auch Untersuchungen, die ergeben, dass für jeden Job, der automatisiert wird, ein neuer Job geschaffen wird.

Ganz so rosig ist es nicht. Die Geschäftsmodelle sämtlicher traditioneller Medien sind durch die digitalen Technologien angeschlagen. Deswegen versuchen auch Medienunternehmen an dem zu sparen, was eigentlich ihr Kapital ist, dem Personal. Dann aber ist die ethische Grenze beim Einsatz künstlicher Intelligenz überschritten. Das widerspricht sogar dem Robotergesetz von Science-Fiction-Schriftsteller Isaac Asimov, das besagt, dass ein Roboter dem Menschen nicht schaden darf. Fromme Wünsche in einer freien Marktwirtschaft. Während Unternehmer aller Branchen öffentlich beteuern, KI nur einzusetzen, um Mitarbeitende zu unterstützen oder gar besser bezahlte Jobs zu schaffen, wurde beim vorletzten World Economic Forum in Davos hinter verschlossenen Türen sehr offen darüber geredet. Für Unternehmen ist künstliche Intelligenz der Schlüssel zum Personalabbau. Warum sollte das bei den Medien anders sein.

© SZ/tyc
Zur SZ-Startseite

Lesen Sie mehr zum Thema