Künstliche Intelligenz:Wenn Maschinen halluzinieren

Lesezeit: 2 min

(Foto: Oliver Berg/dpa)

Ein Mann mit alberner Brille wird als Milla Jovovich identifiziert, eine Foren-Software erkennt Beleidigungen als Komplimente. Wie gefährlich ist es, wenn KI mit falschen Beispielen gefüttert wird?

Von Michael Moorstedt

Als er die Ergebnisse auf dem Bildschirm sah, bekam es Max Hui Bai mit der Angst zu tun. Wie so oft hatte der Psychologiedoktorand für seine Umfragen die Crowdsourcing-Plattform Mechanical Turk eingesetzt. Doch was bislang gut funktionierte, ergab plötzlich keinen Sinn mehr. Offene Fragen wurde mit zusammenhanglosem Kauderwelsch beantwortet, die Hälfte der Fragebögen konnte er nicht verwenden, die Studie ein Fall für den Müll.

Nachdem andere Forscher Ähnliches berichten, hat sich in der Wissenschaftsgemeinde nun der Verdacht erhärtet, dass findige Nutzer automatische Bots auf die Beantwortung der Fragebögen ansetzen. Und diese Bots sind weit davon entfernt, konsistente Antworten zu liefern. Amazons Crowdsourcing-Plattform ist ebenso wie ähnliche Angebote ein komfortabler Weg, um schnell an Umfrageergebnisse zu kommen. Tausende Studien werden jedes Jahr so erarbeitet, in den USA fußen bis zur Hälfte aller sozialwissenschaftlichen Befragungen in Teilen auf Mechanical Turk.

KIs hacken

Das ist nicht nur aus erkenntnistheoretischer Sicht problematisch. Denn es sind nicht nur Geisteswissenschaftler, die auf der Plattform Daten erheben. Sondern auch Informatiker, die hier ihre künstlichen Intelligenzen (KI) trainieren wollen. In der IT-Security-Szene gibt es nun Befürchtungen, diese Daten könnten von Hackern benutzt werden, um die KIs zu hacken. Der beste Weg, eine selbstlernende Maschine zu täuschen, sei es, ihr falsche Dinge beizubringen. Der Fachbegriff dafür lautet Adversarial Example, also feindliches oder gegensätzliches Beispiel. Wenn sie diesen Daten ausgesetzt sind, scheinen die Maschinen zu halluzinieren, sie sehen Dinge als wahr an, die gar nicht da sind.

Computer nehmen die Welt anders wahr. Die Bilderkennungsalgorithmen erschließen sich ihre Umgebung nicht durch eine Mischung aus Lichtreizen, Bewegungen und Konturen. Sondern nur durch die Analyse einer Ansammlung von Pixeln. Und wenn nur ein paar dieser Pixel manipuliert werden, kann eine KI vollkommen aus dem Konzept geraten. Für das menschliche Auge sind die Verformungen dagegen gar nicht wahrnehmbar. Den Computer veranlassen sie dagegen, ein Foto oder einen Satz falsch einzuordnen.

Die Erfahrung zeigt, dass einmal identifizierte Schwachstellen auch ausgenutzt werden. Noch sind Beispiele dafür jedoch akademischer Natur. Das macht sie aber nicht weniger grotesk und furchteinflößend. Da erkennt der Algorithmus etwa auf einem Foto ein Gewehr statt der abgebildeten Schildkröte. Ein Mann mit einer albernen Brille im Gesicht wird als die Hollywood-Schauspielerin Milla Jovovich identifiziert. Eine automatische Foren-Moderationssoftware erkennt derbe Beleidigungen als Komplimente. Oder durch ein paar geschickt platzierte Aufkleber wird in der Wahrnehmung eines selbstfahrenden Autos aus einem Stoppschild ein Zeichen zur Aufhebung des Tempolimits.

© SZ vom 17.09.2018 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Künstliche Intelligenz
:Was Maschinen können - und was nicht

Bei künstlicher Intelligenz hält die Autorin Manuela Lenzen wenig von Ängsten und übertriebenen Erwartungen. Ihr Buch sollte man schnell lesen - weil es bald überholt sein wird.

Von Eva Weber-Guskar

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: