Künstliche Intelligenz Hilfe, die Computer bekommen Augen!

Ein Algorithmus von Google erkennt erstmals, was auf Bildern zu sehen ist. Maschinen werden immer menschlicher. Müssen wir uns fürchten?

Von Bernd Graff

Als wäre "Der Schrei" nicht schon im Original verstörend genug:Google Developer machen in einem Tutorial vor, wie auch Edvard Munchs Gemälde sich verdreamen lässt.

(Foto: Screenshot Youtube/Google Developers)

Der Suchmaschinenkonzern Google hat ein System entwickelt, das seine eigenen Schöpfer überfordert. Denn es lernt so autonom und so eigenwillig, dass seine eigenen Programmierer nur darüber staunen, wie ihr Computer-Programm arbeitet. Oder soll man sagen: wie es denkt? Die Maschine lernt sehen - und vor allem lernt sie zu benennen und zu begreifen, was sie sieht.

"Deep Dream" heißt das Visualisierungswerkzeug, und Google stellt es in seinem Entwickler-Blog vor: Es dokumentiert, wie Maschinen rechnen, wenn man ihnen Bilder vorlegt. Und weil der Konzern auch den Quellcode, also die Bauanleitung, von Deep Dream freigegeben hat, finden sich im Netz immer mehr Seiten, auf denen Nutzer das ausprobieren und eigene Bilder eingeben können. Noch dauert die Bearbeitungszeit Wochen. Die Künstliche Intelligenz (KI) ist mit der Nachfrage etwas überfordert. Für erkennungsdienstliche Zwecke ist der Computer schon lange nützlich. Allerdings hat die Maschine bislang nur das wiedererkannt, was in ihren Datenspeicher gelegt worden ist. Die biometrischen Daten von Personen zum Beispiel. Mit Deep Dream lernt sie, selbst zu sehen, das Gesehene zuzuordnen und dann auch wiederzuerkennen. Die Folgen dieser neuen Bildverarbeitung könnten bald schon schwindelerregend sein. Kann der Computer womöglich schon bald jeden Menschen auf der Straße aus jedem Blickwinkel schon anhand seiner Silhouette und seines Gangs identifizieren? Wie leben wir, wenn wir von Computern nicht nur immer gesehen, sondern immer erkannt werden?

Noch braucht die Künstliche Intelligenz mehrere Schritte, um zu deuten, was sie sieht. Im Verlauf dieses Prozesses entstehen Bilder von surrealer Schönheit, meist auch von abstrakter Disproportion und Verzerrung, als kennten sie weder Raum noch Perspektive: Große Hundenasen münden in Kükenkrallen, Arme werden zu Würmern, Sonnenblumen zu Sperlingen - und sehr, sehr vielen Augen. Bilder wie psychedelische Traumlandschaften sind dies, die massenhaft in den sozialen Medien herumgereicht werden. Auf den Webseiten mit dem Quellcode von Deep Dream jagen Spaßvögel Selfies und Pornos durch dieses Programm, Politikerporträts und Popgrößen.

Jemand hat, Einzelbild für Einzelbild, Sequenzen aus Filmen wie "Fear & Loathing in Las Vegas", dem Acid-Wave-Movie der späten Neunzigerjahre, in das Programm eingespeist: Da wirkt die Künstliche Intelligenz wie auf Drogen, nichts bleibt, was dem Auge Halt gibt. Manche Bilder erinnern an Hieronymus Bosch. Doch diese Szenen bunten Irrsinns sind nur ein Nebeneffekt. Viel entscheidender und auch beängstigender an Deep Dream ist, auf welchen dramatisch erfolgreichen Prozessen die neuen Erfolge der Bilderkennung basieren: Die Maschinen lernen anscheinend genauso, wie wir es tun.

"Ja, liebe Maschine, das ist wirklich eine Katze."

Google Wenn Google in die Wolken starrt
Kunst von Computern

Wenn Google in die Wolken starrt

Googles Algorithmus "Deep Dream" erkennt Muster so gut wie kein Programm zuvor. Die Ergebnisse sind niedlich, gruselig und irritierend.   Von Kathleen Hildebrand

Tatsächlich haben die Entwickler solcher Identifikationssoftware wie der von Google in den letzten vier Jahren so etwas wie Verlässlichkeit erzeugt: Sie setzten dazu sogenannte Neuronale Netzwerke auf, also arbeitsteilig funktionierende Rechnerverbände, um beliebige Bilder von Computern erkennen zu lassen. Dazu wird der Erkennungsprozess in aufeinander aufbauende Teilvorgänge unterteilt. Google spricht von Layern, also Schichten. Sie suchen zuerst Konturen, Ecken und Kanten in einem Bild, markieren diese und reichen sie an die nächste Erkennungsinstanz weiter.

Diese sucht mit dem "Wissen" um Ecken und Kanten nun nach zusammenhängenden Gebilden und Körpern, differenziert Muster und Strukturen und reicht sie wiederum weiter. Die letzte Schicht mit der höchsten Abstraktionsstufe bildet aus der Summe der Informationen wieder ein Gesamtbild und entscheidet, was darauf zu sehen sein soll. Zehn bis 30 Schichten hat ein solches neuronales Netzwerk gewöhnlich.

Die Konzepte sind dem System antrainiert. Die Entwickler haben es mit den Datensätzen von Abermillionen Bildern gefüttert - und sie anschließend mühsam in "deren Sichtweisen" bestätigt: "Ja, liebe Maschine, das ist wirklich eine Katze." Viele Millionen Mal. Es ist ein erfolgreiches Training zur Bilderkennung.

Die Intelligenz des Systems beeindruckt

Künstliche Intelligenz Google-Software meistert selbständig "Space Invaders"
Künstliche Intelligenz

Google-Software meistert selbständig "Space Invaders"

Ein Google-Team hat eine Software entwickelt, die selbständig lernt, Videospiele perfekt zu spielen - darunter Atari-Klassiker wie "Space Invaders" oder "Breakout". Das KI-System erfindet dabei langfristige Strategien.   Von Christoph Behrens

Auch wenn die Traumbilder, die nun im Internet kursieren, nicht den Eindruck vermitteln, dass hier irgendeine intelligente Instanz weiß, was sie wahrnimmt, ist die Intelligenz des Systems beeindruckend. Maschinen leisten nun tatsächlich, was bislang Menschen vorbehalten war: Man legt einem Rechner ein Bild vor, und mit seiner Künstlichen Intelligenz erkennt und benennt er auf dem Bildschirm, was er sieht. Sogar einen Hund mit Hut, einen Reiter vor der Hürde, einen Schulbus an der Ampel. Die Künstliche Intelligenz weiß dann zwar immer noch nicht, was eine Katze ist, aber sie erkennt sie, wenn sie eine sieht.

Wie aber kommt es dann zu der Diskrepanz zwischen den irren Artefakten und dieser angeblichen Treffsicherheit in der Bilderkennung? Das wissen die Technologen im Silicon Valley selbst nicht so genau: Warum die Maschine was wie berechnet, ist unklar. Was in ihren Netzen vorgeht, ahnen die Forscher allenfalls, wenn sie diese Programme trainieren. Nur so viel haben sie bislang herausgefunden: Die Artefakte und psychedelischen Irrsinnsbilder sind Produkte von Rückkopplungsschleifen. Das Neuronale Netzwerk gleicht seine Erkenntnisse immer mit den vorhergehenden Erkennungsstufen ab und kontrolliert damit das Echo seiner selbst. Gewissermaßen eine Bekräftigung von Vorurteilen, die sich die KI gemacht hat.

Die Algorithmen sind lernfähig

In einem umgekehrten Prozess können die Forscher aus dem System übrigens auch herauskitzeln, was es zum Beispiel noch an Information benötigt, damit es sicher auf einem Bild die Katze erkennt. Und auch das klappt. Auf diese Weise lernt Künstliche Intelligenz, Schicht für Schicht, Bilder treffsicher zu erkennen.

Beim Verstehen gesprochener Sprache ist die Künstliche Intelligenz ähnlich weit: Die Assistenten auf Smartphones beweisen schon jetzt, dass sie von Menschen gesprochene Sprache begreift. Die Entwickler haben ihr beigebracht, aus dem Rauschen von Tönen Wörter zu differenzieren und die Regeln der Grammatik zu extrahieren. Eben so, wie sie nun Katzen und Hunde auf Bildern wiederfindet.

Klar, manchmal irren sich die Maschinen noch. Doch sie tasten sich mit ihrem einmal erworbenen und stetig wachsenden Wissen immer weiter vor und machen es sich immer souveräner zu eigen, was auf der Welt zu sehen ist. Dabei scheint die Maschine wie der Mensch zu lernen. Missverständnisse fußen auf Wissenslücken: Wer könnte nicht von absurden "Verhörern" berichten, als er kaum Englisch sprach, aber schon Popsongs mitsingen wollte? Und lachen wir nicht heute über "There's a bathroom on the right" von CCR, wo es doch "There's a bad moon on the rise" heißen müsste. Ist das nicht eine genauso irre Fehlleistung?

Menschliche Maschinen

Terminator "Roboter zwingen uns, sie am Leben zu erhalten"
Interview
Künstliche Intelligenz in "Terminator"

"Roboter zwingen uns, sie am Leben zu erhalten"

Ist eine Bedrohung durch Maschinen wie in "Terminator: Genisys" realistisch? Rolf Pfeifer, Experte für Künstliche Intelligenz, gibt Entwarnung für die Menschheit. Mit einer Einschränkung.   Von Paul Katzenberger

Und bei der Gestalt-Erkennung - haben damit nicht auch manche Menschen Schwierigkeiten? In dem Buch "Der Mann, der seine Frau mit einem Hut verwechselte" des britischen Neurologen Oliver Sacks taucht eine Figur auf, die keine Rose erkennen kann. Sie sieht einen schmalen Stab, an den mehrere Dreiecke montiert sind. Und am Ende befindet sich eine rote Kugel, in der sich gewundene Kreise ineinander verschlingen.

Sind die Deep Dreams, die tiefen Träume, davon so weit entfernt? Noch lachen wir über die bizarren Tieftraumbilder der Bilderkennungsmaschinen von Google. Doch sie sind uns näher, als wir denken. Sie wiederholen bereits unsere Fehler.