bedeckt München
vgwortpixel

Künstliche Intelligenz:News aus dem Maschinenraum

Der Informatiker Nicholas Diakopoulos von der Northwestern University im US-Staat Illinois forscht zu den Chancen und Grenzen von Algorithmen im Journalismus. Er sagt: Ohne Menschen geht es nicht.

Schon heute werden einfache journalistische Texte von Computerprogrammen geschrieben. Nachrichtenagenturen wie Bloomberg und AP automatisieren damit Teile ihrer Finanz- und Sportberichterstattung. Auf manchen Webseiten, wie jene der norwegischen Zeitung Aftenposten, entscheidet auch ein Algorithmus, wie Inhalte platziert werden - und nicht mehr ein Mensch. Das könnte in Zukunft in der ganzen Medienbranche Alltag sein. Der Informatiker Nicholas Diakopoulos von der Northwestern University im US-Bundesstaat Illinois erforscht seit vielen Jahren das Zusammenspiel von technischer Automatisierung und Journalismus. Gerade ist sein Buch "Automating the News: How Algorithms are Rewriting the Media" erschienen.

SZ: Herr Diakopoulos, könnte ein Computer in Zukunft solch ein Interview führen?

Diakopolous: Wenn Journalisten Umfragen durchführen, kann das klappen. Algorithmen sind gut für Routinesituationen, die berechenbar sind. Aber bei einem konfrontativen Interview mit einem Politiker oder jemandem in einem Großkonzern, der eine Frage nicht beantworten will, vielleicht versucht, ihr auszuweichen, braucht man jemanden, der in der Lage ist, das zu erkennen. Computer können nicht nachfragen. Ich denke, dass Algorithmen oder künstliche Intelligenz das nicht können. Es gibt so viel Wissen in der Welt, das nur in den Köpfen der Menschen existiert. Journalisten müssen mit ihnen sprechen, um diese Informationen zu bekommen.

Deshalb befürworten Sie in Redaktionen keine vollständige Automatisierung, sondern eine Hybridisierung: Der Computer wertet Daten aus, aber ein Mensch kontrolliert am Ende, welche Schlüsse daraus zu ziehen sind und was veröffentlich wird.

In der Tat. Bei einem effektiven Hybridsystem geht es darum, zu verstehen, was ein Algorithmus kann - und was eben nicht. Und dann versuchen wir herauszufinden, wie wir diese beiden Dinge in einer Weise zusammenfügen können, die vorteilhaft ist. In der redaktionellen Arbeit betrifft das mehr Geschwindigkeit, Qualität, Breite oder Personalisierung. Aber man muss auch Daten haben, die man maschinell verarbeiten kann. Es lässt sich nicht die ganze Welt in Zahlen übersetzen.

Die Automatisierung kann zwar helfen, schlichte Beschreibungen zu generieren, aber fehlt dabei nicht die journalistische Art, die Welt zu erklären?

Die Interpretation, sei sie sozial oder kulturell, muss meistens von einem Menschen kommen. Ein Computer kann nichts einordnen, er kann keine Schlüsse ziehen, keine Argumente oder Erklärungen ableiten, warum Dinge passieren - selbst, wenn es viele Daten sind. Man braucht Menschen, die wissen, was in der Welt vor sich geht.

Journalisten müssen also durch die Automatisierung nicht um ihre Jobs bangen?

Ich glaube wirklich nicht, dass die Automatisierung zu Massenentlassungen in den Redaktionen führen wird. Eine Statistik, die ich in meinem Buch zitiere, besagt, dass 15 Prozent des Tages eines Reporters automatisiert sein könnten, 9 Prozent des Tages eines Redakteurs. Eine Stunde am Tag. Diese Zeit kann in eine ausführlichere Berichterstattung reinvestiert werden. Und ich denke, dass es am Ende mehr Jobs in der Medienbranche geben wird. Das sieht man bereits heute bei großen Unternehmen wie Reuters, Bloomberg oder AP, die neue Positionen zur Überwachung der Computerprogramme schaffen.

Glauben Sie, dass jeder Journalist in Zukunft irgendwelche Programmierkenntnisse haben muss?

Ich denke, dass es in jedem Newsroom immer mehr Aufgaben geben wird, die mit der Arbeit mit Daten zusammenhängen. Automatisierte Textvorlagen werden zunehmend erstellt, Wissensdatenbanken müssen aktualisiert werden. Ich spreche aber wirklich nicht davon, dass alle Journalisten Softwareentwickler werden müssen.

Sie schreiben in Ihrem Buch sehr viel über menschliche Werte, die Medienunternehmen in ihre Software integrieren müssen. Vor allem betrifft das die Auswahl: Welche Nachricht ist wirklich relevant, welche verstößt vielleicht gegen moralische Werte? Wie kann das funktionieren?

Nick Diakopoulos

Nicholas Diakopoulos erforscht seit Jahren künstliche Intelligenz im Journalismus. Er ist Assistant Professor an der School of Communication der Northwestern University in Illinois und Direktor des Computational Journalism Lab.

(Foto: privat)

Es gibt tatsächlich ein ziemlich aktuelles Beispiel aus einer Zeitung: Die Washington Post hat ein System namens ModBot eingeführt. Es liest automatisch die abgegebenen Nutzerkommentare vor der Veröffentlichung, um festzustellen, ob diese auch den Qualitätsstandards der Zeitung entsprechen. Eines der Signale, auf das sich die künstliche Intelligenz bei den Kommentaren konzentriert, ist der Gebrauch von beleidigender Sprache. Was ich wirklich interessant finde: Das Programm wurde explizit entwickelt, um ausfällige Sprache gegen Persönlichkeiten des öffentlichen Lebens etwas anders zu behandeln als ausfällige Sprache gegenüber nicht-öffentlichen Personen. Politiker zum Beispiel müssen bei einer Diskussion über gesellschaftlich wichtige Themen mehr ertragen als Privatpersonen. Die Washington Post konnte der Software die moralischen Werte einprogrammieren, die wir als wichtig für eine öffentliche Diskussion empfinden.

Es gibt viele Beispiele in Ihrem Buch über Angebote wie jene der Nachrichtenagentur Bloomberg, die ihre Berichterstattung über Quartalsabschlüsse automatisiert. Nutzt der Finanzsektor die maschinelle Unterstützung schon jetzt so stark, weil es dort schlichtweg mehr Daten gibt als in anderen Bereichen?

Ja, das eine sind die Daten. Aber ein weiterer Grund, warum viele Medienunternehmen die Automatisierung so sehr lieben, ist, dass sie es ihnen ermöglicht, schneller zu veröffentlichen. Und wenn man es ein wenig schneller macht, kann man auch mehr Geld verdienen.

Haben Sie keine Angst, dass die Automatisierung Nutzern noch viel mehr Informationen liefert, als sie sowieso schon haben? Sich von Maschinen helfen zu lassen, um möglichst viele Nachrichten zu liefern, kann zu einer Überforderung führen.

Ja, das stimmt. Ich sehe sogar, dass es eine Überlastung im Newsroom gibt. Sobald man Werkzeuge hat, die in der Lage sind, Muster in einem Dokument oder Datensatz zu erkennen, senden sie in der Regel einen Hinweis an die Journalisten. Sie kriegen unter Umständen ständig Benachrichtigungen. Es wird zur Frage, wann sie die Journalisten in der Redaktion davon ablenken, das zu tun, was sie sonst tun würden. Auf der Nutzerseite haben wir jetzt schon Algorithmen, die uns Informationen filtern, aber sie müssen journalistischen Werten folgen. Das tun sie meiner Meinung nach heute noch nicht.

Automatisierung in Redaktionen könnte also dazu beitragen, in Zukunft mehr, hoffentlich hilfreiche, Inhalte zu generieren. Haben Sie keine Angst, dass sie auch dazu dienen könnte, Fake News zu verstärken?

Natürlich wird es von schlechten Akteuren genutzt werden, wie bei den Deepfakes, also manipulierter oder künstlich erstellter Videos oder Fotos. Um diesen synthetischen Medien entgegenzuwirken, benötigen wir extrem leistungsfähige Werkzeuge, die sicherstellen, dass es auch den Tatsachen entspricht, was berichtet wird. Es muss Tools geben, die verstehen können, ob ein Bild echt ist oder nicht. Ich denke, dass Technologie in diesem Bereich ein wichtiger Teil der Lösung sein kann.