Robotik:Künstliche Dummheit

Network of neurons and neural connections, Brain cells, scientific conceptual 3D illustration

Neuronale Netze im menschlichen Gehirn verfügen über viele Querverbindungen. Eine 3-D-Illustration soll helfen, die komplexen Vorgänge besser zu verstehen.

(Foto: Oleksiy Maksymenko/dpa/All Canada Photos)
  • Forscher versuchen seit langem, das menschliche Gehirn in Maschinen zu simulieren.
  • Doch obwohl Roboter dem Menschen in einigen Tätigkeiten überlegen sind, scheitern sie erstaunlich oft an simplen Aufgaben, wie dem Öffnen einer Tür.
  • Das liegt auch daran, dass das Gehirn noch längst nicht zur Gänze verstanden ist.

Von Eva Wolfangel

Ein Roboter versucht, eine Tür zu öffnen, und fällt, als sie endlich aufspringt, mitsamt der Tür ins Haus. Ein anderer stolpert über die Schwelle, der nächste über seine eigenen Füße. Schwer zu glauben, dass es sich hier um die weltbesten Roboter handeln soll und nicht um eine Slapstick-Einlage.

"Es gibt noch viel zu tun", sagt der Robotik-Spezialist Florian Röhrbein von der TU München. Er sitzt bei einer Podiumsveranstaltung in Stuttgart und zeigt YoutubeVideos von der sogenannten "DarpaChallenge", einem Roboterwettkampf, den das amerikanische Militär ausrichtet. Die Roboter sollen zeigen, was sie können. Aber eigentlich messen sie sich mehr mit der Umwelt als untereinander. Dazu passt auch das Thema des Diskussionsabends: "Neuroroboter - Über künstliche Dummheit und natürliche Intelligenz".

Auch Flugzeugingenieuren hilft es nur bedingt, wenn sie Vögel beobachten

Es sind teilweise die einfachsten Dinge, die Robotern noch immer nicht gelingen wollen. Aufgeben will Röhrbein die Hoffnung trotzdem nicht. Er beteiligt sich am "Human Brain Project" (HBP), einem milliardenschweren EU-Förderprojekt. Und er glaubt, dass Roboter schon bald komplizierte Aufgaben erledigen können. Dafür müsste man sich allerdings die Abläufe im menschlichen Gehirn noch genauer anschauen und sie dann auf die Robotik anwenden. Genau das ist ein Ziel des europäischen Vorhabens.

Ursprünglich sah der Zeitplan vor, das menschliche Gehirn innerhalb von zehn Jahren per Computer zu simulieren. Aber die Forscher stritten sich von Anfang an, wie realistisch das sei. Sie wollten wissen, wer am Ende am meisten profitiert. Die Neurowissenschaft? Die Robotik? Oder vielleicht die Unternehmen, welche die Technik später kommerziell nutzen? Es gab einen offenen Brief, schließlich einen Führungswechsel im Projekt, und am Ende beäugten sich Neurowissenschaftler und Robotiker trotzdem weiter skeptisch. Das scheint sich nun zu ändern.

Beide Seiten könnten doch noch zusammenfinden. Das glaubt zumindest Andreas Herz, Professor für Neurobiologie an der Münchner Ludwig-Maximilians-Universität. Er weiß, dass Informatiker gerne betonen, die neuen Formen des maschinellen Lernens würden ähnlich ablaufen wie das Lernen im biologischen Gehirn. Aber die Betonung liegt für ihn auf ähnlich, nicht auf identisch. Er sagt: "Deep Learning funktioniert nach anderen Prinzipien, als wir beim Gehirn vermuten." Nervenzellen, die elementaren Bausteine des Denkens, seien nämlich viel komplexer als die "Units" beim maschinellen Lernen.

Umgekehrt bedeutet das nicht, dass beide Seiten gar nichts voneinander lernen können. Herz vergleicht die Lernprozesse mit dem Bau eines Flugzeugs. Aus der Ferne betrachtet fliegt es wie ein Vogel durch die Luft. Doch sobald der Vogel mit den Flügeln schlägt, werden die Unterschiede deutlich. Trotzdem kann der Vogelflug neue Erkenntnisse für Ingenieure bringen. Zum Beispiel, wenn es um Aerodynamik oder die perfekte Flugbahn geht.

Die Vertreter des Human Brain Project sind mit ihren Versprechen sehr viel vorsichtiger geworden. "Der Nachbau des Gehirns ist nicht das primäre Ziel", sagt Alois Knoll, heute Software Development Director des HBP und Informatiker an der TU München. Er und seine Kollegen geben sich momentan damit zufrieden, beschränkte intellektuelle Leistungen des Gehirns auf den Rechner zu bringen. Aber auch Knoll weiß, dass das nicht das Ende der Entwicklung sein wird. Andere sind noch vorsichtiger.

"Manche Dinge können Maschinen auch besser"

Wer von Matthias Bethge (Universität Tübingen) wissen will, wie viel Gehirn heute in den maschinellen Lernverfahren steckt, muss sich zunächst mit einer Zeichnung begnügen. Auf einer Tafel im Max-Planck-Institut in Tübingen zieht er viele parallele Linien. Es sind die Schichten eines tiefen neuronalen Netzes. Und dazwischen kleine Trichter. Sie sollen den Informationsfluss durch dieses Netz symbolisieren.

Kürzlich hat er Kollegen gezeigt, dass die Objekterkennung in solchen Netzen ganz anders funktioniert als beim Menschen. Aus einem einfachen Grund: Künstliche Netze nutzen Informationen nur bruchstückhaft. Man kann es mit einem Bild vergleichen, das in viele kleine Puzzleteile zerlegt und durcheinandergewürfelt wird. Für Menschen ist es sehr schwierig, den Bildinhalt zu erraten. Der Computer kann aus den zufällig angeordneten Puzzleteilen problemlos das ursprüngliche Bild erkennen. Sogar verschiedene Hunderassen können treffsicher unterschieden werden.

"Das ist ein klarer Hinweis darauf, dass das künstliche Netz den Inhalt eines Bildes ganz anders verarbeitet als das Gehirn", sagt Bethge. Zusammen mit Neurowissenschaftlern versucht er derzeit, genau nachzuvollziehen, welche Bildinformationen in der Netzhaut im Auge extrahiert und an das Gehirn weitergeleitet werden. "Der wichtigste Unterschied zwischen Mensch und der bisherigen KI liegt im Generalisierungsverhalten", sagt der Wissenschaftler aus Tübingen. Etwas wiederzuerkennen, oder noch allgemeiner, etwas aus Erfahrung zu lernen, geht nur, indem manche Details ausgeblendet werden. Die entscheidende Frage lautet dann: Welche Informationen können ignoriert werden und welche sind wichtig?

Bethge versucht, das mit einer Analogie zu verdeutlichen: Ein Spielzeug-Toaster kann noch so realistisch aussehen, ohne Heizdraht wird man damit keine krossen Brote herstellen. Für das Toasten ist der Heizdraht das Entscheidende.

Beim Human Brain Project warnt Bethge deshalb vor falschen Erwartungen. Neuronale Netze werden nicht unbedingt besser, nur weil man sie an das menschliche Gehirn anlehnt. "Manche Dinge können Maschinen auch besser", sagt er. Beispielsweise Muster in großen Datenmengen erkennen - auch wenn das genau eines der Probleme verursacht, mit denen die Forscher kämpfen.

Algorithmen gehen eine Aufgabe ganz anders an, als es Menschen tun. Ihnen fehlt ein Modell der Welt. Das ist wohl einer der Gründe, weshalb Menschen teilweise nur ein einziges Trainingsdatum brauchen, um ein Tier wieder zu erkennen. Sie gleichen es einfach mit ihrem Weltmodell ab: Ein Körper mit vier Beinen, Fell, Schnauze? Klar, dass es sich um ein Tier handeln muss. Der Rest ist Feintuning.

Umgekehrt sind das genau die Eigenschaften, die Algorithmen fehlen: das Körpergefühl, das intuitive Verständnis für die Physik, das Menschen bei der Interaktion mit der Umwelt automatisch mitbekommen. "Wenn man das Gehirn vollständig verstehen will, muss man es auf allen Ebenen verstehen, bis hinunter auf die molekulare Ebene", sagt HBP-Direktor Knoll, "ein biologisches Gehirn ohne Körper existiert nicht." Manche Spezialisten verzichten deshalb auf rein virtuelle Roboter. Stattdessen bauen sie lernende Systeme mit echten Körpern. Also schlaue Roboter.

Vielleicht besteht die Abhängigkeit auch umgekehrt. Gut möglich, dass die Neurowissenschaft die Robotik genauso braucht, um das menschliche Gehirn in seiner Gänze zu verstehen. Sonderlich weit ist man damit aber noch nicht gekommen. Selbst wenn man die Struktur des Menschenhirns in all seinen Details rekonstruieren könnte, weiß man noch lange nicht, wie die einzelnen Komponenten aufeinander wirken. Aktivitäten lassen sich im lebenden Gehirn nur schwer beobachten. Der Computer könnte da weiterhelfen, glauben zumindest manche Experten. Er könnte Vorhersagen erarbeiten, die man hinterher im Experiment überprüft. "Sollten Simulationsvorhersagen im Experiment eintreten, hat man einen Teil des Gehirns verstanden", sagt Marcel Oberlaender von der Max-Planck-Gruppe in Bonn.

86 Milliarden

Nervenzellen besitzt das menschliche Gehirn. Früher ging man von einer weitaus größeren Zahl aus. Inzwischen sind die Berechnungen aber genauer. Das haben Wissenschaftler festgestellt, indem sie Gehirne aus Leichen entnommen und homogenisiert haben. Die entnommenen Proben verfügen über eine durchschnittliche Verteilung von Zellen und sind repräsentativ für das ganze Gehirn.

Oberlaender will sich nicht zu sehr von den Unterschieden zwischen künstlichen und biologischen Netzwerken einschränken lassen. Er glaubt sehr wohl, dass man vom einen aufs andere schließen kann. Als Beispiel nennt auch er die unterschiedliche Informationsverarbeitung. Es sei nun mal so, dass künstliche Netze Informationen hierarchisch von einer Schicht zur nächsten weitergeben. Verglichen mit der Biologie ist das ein grundverschiedener Vorgang. Im menschlichen Gehirn gibt es jede Menge Querverbindungen innerhalb der Schichten, sie heißen Loops und sorgen dafür, dass Informationen hin- und her geschickt werden.

Es reicht, ein Pixel zu verändern. Schon ist der Computer verwirrt

"Was ist der architektonische Vorteil dieser Querverbindungen?", fragt Oberlaender. Er zuckt mit den Schultern und sagt: "Das versuchen wir gerade herauszufinden." Wüsste man, wie komplizierte Entscheidungen im Gehirn zustande kommen, man wäre der Superintelligenz schon viele Schritte näher. Es mag widersprüchlich klingen: Aber um den menschlichen Intellekt zu übertrumpfen, müsste man ihn zunächst vollständig durchschauen. Und das könnte noch eine ganze Weile dauern.

Vielleicht erklärt die indirekte Informationsweitergabe die Flexibilität, mit der das menschliche Gehirn auf die Umwelt reagieren kann. Eine Fähigkeit, die der künstlichen Intelligenz noch abgeht. Stattdessen sind die künstlichen Netze immer nur für einen bestimmten Anwendungsfall trainiert. Sie können zum Beispiel sehr gut Gesichter erkennen, aber Generalisten sind sie bei Weitem noch nicht. "Das biologische Gehirn verfügt über einzigartige Fähigkeiten, die das Überleben des Individuums sicherstellen", sagt der Informatiker Knoll. Er ist überzeugt, dass Menschen dadurch in schwierigen Situationen optimale Entscheidungen treffen können. Widersprüchliche Informationen stellen für sie nicht zwangsläufig ein Problem dar. Für Computer schon.

Das Gehirn gilt noch immer als viel zu komplex, das Verhältnis von Ursache und Wirkung, die genauen Zusammenhänge, all das ist noch unklar. Schon allein deswegen können Informatiker das menschliche Gehirn nicht eins zu eins nachahmen. "Wir müssen herausfinden, worauf es bei den neuronalen Beobachtungen eigentlich ankommt", sagt Matthias Bethge von der Uni Tübingen. Nachmodellieren will er nur solche Eigenschaften, die das Gehirn tatsächlich besser kann. Das Ziel bleibt trotzdem dasselbe: Ein Roboter soll irgendwann ähnlich auf die Welt blicken können wie Menschen.

Das Problem ist, dass die künstlichen Systeme dafür noch nicht robust genug sind. Beispielsweise scheitert die automatische Bilderkennung, wenn in einem Bild nur ein einziges Pixel verändert wird. Ein Mensch würde eine solche Änderung nicht einmal wahrnehmen. Das Bild wäre für ihn dasselbe.

Google baut Rattenhirne. Aber ohne Vorlage aus der echten Welt

Auf Überraschungserfolge darf man trotzdem hoffen. Forschern des University College London hatten gemeinsam mit Wissenschaftlern von Google einen Algorithmus erzeugt, der die Aktivität spezieller Neuronen im Gehirn erfolgreich kopierte. Laut aktueller Forschung sind diese Neuronen für die Orientierung zuständig. Neu war nun, dass diese Neuronen zum ersten Mal ohne eine Vorlage nachgebaut wurden: Das System wusste nicht von der Existenz der sogenannten echten Grid-Zellen im menschlichen Gehirn. Geschweige denn, wie die Zellen funktionieren.

Die Forscher hatten ein künstliches neuronales Netz einfach darauf trainiert, eine virtuelle Ratte durch einen Käfig zu lenken. Und prompt zeigte das Netz genau die gleichen, hexagonalförmigen Aktivitätsmuster wie jene der Grid-Zellen, die im echten Nagerhirn das Navigieren steuern und mit einem Nobelpreis bedacht wurden. Die KI-Forscher waren einigermaßen überrascht. Mit der neuen Programmierung konnte die künstliche Ratte plötzlich problemlos in einem Labyrinth durch Versuch und Irrtum Wege und Abkürzungen finden. Sie stellte sich sogar besser an als menschliche Experten.

Doch die Wissenschaftler bleiben zurückhaltend. Die Google-Forscherin Andrea Banino sagte dem Fachjournal Nature, es habe sie zwar inspiriert, mit Neurowissenschaftlern zusammenzuarbeiten. Um viel mehr als Grundlagenforschung sei es dabei aber nicht gegangen. Doch zumindest laufen die Ratten in der künstlichen Welt nun nicht mehr gegen Türen. Das haben sie echten Robotern voraus.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: