bedeckt München 23°
vgwortpixel

Bilderkennung:Tiefer Blick

Warum neuronale Netze bei der Analyse von Bilddaten verblüffend oft richtigliegen und Dinge erkennen, die dem menschlichen Auge entgehen.

Dunkle Verästelungen mäandern durch das Bild, seitlich leuchtet ein hellerer Fleck. Geologen würden vielleicht auf eine Flusslandschaft tippen. Astronomen könnten sich an einen exotischen Planeten erinnert fühlen. Tatsächlich zeigt die Abbildung eine Netzhaut, wie sie Augenärzte täglich zu Hunderten zu sehen bekommen. Deren Struktur kann viel aussagen über Erkrankungen. Geübte Ophtalmologen erkennen beispielsweise mit recht guter Trefferquote eine diabetische Retinopathie, ein von Zuckerkrankheit verursachtes Augenleiden.

Weit höher ist die Quote korrekter Diagnosen, bei über 90 Prozent, wenn ein selbstlernender Algorithmus ans Werk geht. In beiden Fällen liegt das Geheimnis in der Übung. Das verschafft der Maschine einen Vorteil. Sie kann in kurzer Zeit mehr Netzhaut-Abbildungen scannen und dabei lernen, worauf zu achten ist, als ein menschlicher Augenarzt im Laufe seines gesamten Berufslebens. Ist die Maschine wie in diesem Beispiel mit 130 000 Bildern trainiert worden, erkennt sie eine erkrankte Netzhaut mit 97 Prozent Sicherheit.

Plötzlich war der Algorithmus in der Lage, aus der Netzhaut auf das Geschlecht zu schließen

Die Unterschiede zur gesunden Netzhaut sind oft minimal. Ein leichter Schatten hier, ein hellerer Fleck dort. Dem noch so gut trainierten menschlichen Auge entgehen die subtilen Merkmale häufiger als der Maschine. Der von Google Brain, einer Forschungsabteilung des Suchmaschinen-Konzerns, entwickelte Algorithmus ist mittlerweile von der amerikanischen Gesundheitsbehörde zur Diagnose von diabetischer Retinopathie zugelassen.

Medizinisch weniger nützlich, aber in fachlicher Hinsicht höchst erstaunlich war eine weitere Fähigkeit, welche sich die auf Netzhäute spezialisierte Software völlig von selbst aneignete. Beim Anblick einer Netzhaut war der Algorithmus plötzlich in der Lage, das Geschlecht der Patienten korrekt zu erkennen - mit nahezu hundertprozentiger Sicherheit. Das verblüffte sowohl die KI-Entwickler als auch die Mediziner zutiefst, denn man muss wissen: Kein noch so erfahrener menschlicher Arzt ist hierzu in der Lage. Sollen Ophthalmologen von der Netzhaut auf das Geschlecht des Patienten schließen, schaffen sie das genauso gut, als würden sie eine Münze werfen: mit 50 Prozent Trefferquote.

Die künstliche Intelligenz sieht also in den Bildern, und seien es nur Netzhaut-Spiegelungen, Dinge, die Menschen beim besten Willen nicht erkennen. Es ist das Ende einer noch vor wenigen Jahren für rein menschlich erachteten Domäne. In seinem 2002 veröffentlichten Buch "Der Beobachter im Gehirn" zeigte der Gehirnforscher Wolf Singer eine Abbildung, um zu illustrieren, wozu Maschinen nicht in der Lage sind: Das Bild bestand aus einer Ansammlung scheinbar zufälliger schwarzer Flecken. Menschen erkennen darauf schemenhaft einen Dalmatiner-Hund, was keine Software dieser Welt schafft, hieß es damals. Heute beweisen selbstlernende Algorithmen nicht nur in der Medizin das Gegenteil: Mitunter erkennt die Maschine Dinge, die für das menschliche Auge gänzlich unsichtbar sind.

Die heutigen Deep-Learning-Algorithmen basieren auf Prinzipien, die der britische Mathematiker Alan Turing vor 80 Jahren formulierte. Konkrete Anwendungen wurden aber erst in jüngerer Zeit möglich, nachdem Softwareentwickler begannen, die Lern-Algorithmen wie übereinander geschichtete Nervennetze aufzubauen. Jeder dieser "Layer" ist auf andere Merkmale spezialisiert, beispielsweise auf das Erkennen von Ecken, Rundungen oder Farben eines digitalisierten Bildes. Alle neuronalen Knoten einer Schicht sind mannigfach mit den anderen Schichten verknüpft. Es sind diese Verknüpfungen, welche die Software - angelehnt an ein biologisches Gehirn - während des Lernprozesses anpasst. Hat die Software Tausende oder gar Millionen Bilder gesichtet und gelernt, worauf zu achten ist, kann sie weitere Bilder erkennen und beurteilen - und beispielsweise eine Krankheitsdiagnose erstellen.

Das Besondere an solchen modernen KI-Programmen ist ihr autodidaktischer Charakter. Die Software wird nicht mehr wie ein starrer Algorithmus programmiert, sondern ist in der Lage, selbständig zu lernen. Der Nachteil ist, dass menschliche Experten nicht mehr erfahren, auf welcher Basis die Maschine ihre Entscheidungen trifft. Das gilt auch für ein Programm wie Alpha Zero, welches komplexe Brettspiele wie Go, aber auch Spiele mit unvollständiger Information wie Poker meistert.