"Project Debater" von IBM Berechne mir eine Meinung

Noam Slonim, Projektleiter des "Project Debater"

(Foto: AP)

Die Firma IBM hat eine Software entwickelt, die Menschen überzeugen kann. Das Programm kann menschliches Verständnis in mathematische Formeln übersetzen - mit gefährlichen Folgen.

Von Michael Moorstedt

Die Zahl der Fähigkeiten, die der Mensch exklusiv für sich beanspruchen kann, schrumpft immer weiter. Seit vergangener Woche kann man einen weiteren Punkt von der Liste streichen: Argumentation. Da trat eine IBM-Software mit dem nicht gerade einfallsreichen Namen "Project Debater" gegen zwei menschliche Debattier-Profis an. Es galt, möglichst viele Zuhörer vom eigenen Standpunkt zu überzeugen.

Das Unternehmen ist erfahren darin, seine Entwicklungen medienwirksam in Szene zu setzen. Schon im Jahr 2010 zerlegte das System Watson live im Fernsehen zwei menschliche Profis bei der Quizshow Jeopardy. Die neue Software wird auf der Bühne durch einen Bildschirm mit pulsierenden Lichtern verkörpert. Während der Präsentation hielt jede Partei, Mensch und Computer, zunächst eine vierminütige Eröffnungsrede, hatte die Chance, die Gegenseite zu widerlegen und konnte ein Schlussplädoyer für die eigene Sache vortragen.

Wenn ein Programm überzeugen kann, kann es dann auch lügen?

In der ersten Debatte ging es um Subventionen für Weltraumforschung, in der zweiten stritten sich Mensch und Maschine über das Für und Wider von Telemedizin, und während die erste Runde noch unentschieden ausging, überzeugte die Maschine im zweiten Durchgang neun Zuhörer von ihrer Ansicht - die menschlichen Kontrahenten keinen einzigen. Das Programm erledigte die Aufgaben beinahe in Echtzeit, benötigte nur ein paar Minuten, um die Themen und Gegenreden zu analysieren. Als Quelle dient der Software laut IBM eine Datenbank mit einigen hundert Millionen Zeitungsartikeln und wissenschaftlichen Aufsätzen zu etwa hundert verschiedenen Wissensgebieten.

"Wir wollten demonstrieren, dass eine tief gehende Diskussion zwischen Mensch und Maschine möglich ist", sagt Noam Slonim, einer der Projektleiter. Doch wie immer, wenn man es mit Künstlicher Intelligenz zu tun hat, gilt es vorsichtig zu sein. Natürlich versteht die Software nicht wirklich, was sie da von sich gibt. Stattdessen wird jedem Stückchen Information eine Art Index zugewiesen, inwieweit die Software zuversichtlich ist, dass sie kapiert hat, worüber geredet wird. Je höher diese Kennzahl ausfällt, desto eher wird sie versuchen, genau über den jeweiligen Punkt zu sprechen. Die Programmierer versuchen, menschliches Verständnis in mathematische Formeln zu übersetzen.

Die vom Computer vorgetragenen Reden waren deshalb auch keine diskursiven Wunderwerke, sondern eher auf solidem Mittelstufenniveau, aber das ändert nichts an der beängstigenden Tatsache, dass Computer in Zukunft Informationen nicht mehr nur finden und präsentieren, sondern sie auch selbständig aufbereiten und vortragen können. Wer will schon von seinem Computer, von Alexa und Siri dazu überredet werden, etwas zu glauben - oder sogar dementsprechend zu handeln?

Geschenkt, dass Project Debater auch noch ein paar fest einprogrammierte rhetorische Kniffe auf Lager hatte. Etwa, als der Computer einen kleinen Seitenhieb auf die vermeintlich zu hektische Redegeschwindigkeit seines menschlichen Kontrahenten ausübte und dabei auch noch exakt die Zahl der pro Minute gesprochenen Wörter angab. Das ist zwar für die Sache nicht nötig, sorgt aber für Schmunzeln beim uneingeweihten Publikum. So zieht man die Zuschauer auf die eigene Seite.

Was aber ist, wenn man nicht nur die Validität eines Arguments, sondern auch die Glaubhaftigkeit einer Unwahrheit quantifizieren könnte? Anders gefragt: Wenn ein Programm überzeugen kann, kann es dann auch lügen? Vielleicht lieferte IBM auch wegen solcher Bedenken ganz konkrete Anwendungsmöglichkeiten für Project Debater. Vorstellbar sei etwa eine Software, die Menschen helfen könnte, sich zu beliebigen Themen eine informierte Meinung zu bilden, indem sie das Für und Wider einer Sache neutral darstellt.

Dass man die Vorzeichen genauso umdrehen kann, verschweigen die Projektmanager. Wie wär's zum Beispiel mit noch schädlicheren Bots, die in den sozialen Medien die ihren Herren genehmen Meinungen verbreiten? Nicht nur durch stumpfes Retweeten und Wiederholen, wie es schon der Fall ist, sondern durch Argumente. Die Welt ist letzte Woche wieder ein bisschen gefährlicher geworden. Nicht weil die Maschinen uns unterjochen. Sondern weil sie uns überreden.