Spitzenforschung:Maschine lernt denken

Artificial intelligence and cybernetics; Gehirn

Kann ein Computer besser denken als ein Mensch? Jüngste Erfolge, bei denen Maschinen Menschen beim Spiel besiegten, scheinen dies zu bestätigen. Manche Forscher halten dagegen, dass Maschinen noch lange nicht die Leistung des menschlichen Gehirns erreichen.

(Foto: Alfred Pasieka/Getty Images/Science Photo Library)

Neuronale Netzwerke bringen sich vieles selbst bei und übertreffen nun schon im Spiel die Menschen. Wie weit die künstliche Intelligenz noch entwickelt werden kann, das beschäftigt die Forscher weltweit.

Von Marlene Weiss

Es war alles andere als klar, wie das Match ausgehen würde, als das Google-Programm Alpha-Go im März gegen den Go-Champion Lee Sedol antrat. Die Programmierer von Google waren nervös - wie würde sich ihr Programm schlagen? Immerhin ist Lee wohl der derzeit beste Spieler eines der vertracktesten Spiele überhaupt. Lee wiederum gab sich zuversichtlich. Was Menschen so sagen, wenn sie vor einem Wettstreit stehen, Computer haben so etwas ja nicht nötig. Aber dann begann das Spiel, und bald stand fest: Gegen Alpha-Go hat Lee keine Chance. Erst im vierten von fünf Spielen gelang ihm ein Ehrensieg; da hatte der Computer das Turnier schon für sich entschieden. Auch das fünfte Spiel gewann die Maschine.

Am Anfang kann ein künstliches neuronales Netzwerk nicht viel. Aber es lernt

Damit war nach anderen Spielen, in denen Computer schon länger vorne liegen, eine weitere Bastion des Menschen gefallen. Ein Grund auch, weshalb das Thema diese Woche beim Heidelberg Laureate Forum einen ganzen Nachmittag lang diskutiert wurde. Und doch war dieser Sieg anders als der von Deep Blue, der 1996 Schachweltmeister Garri Kasparow besiegte, oder von IBMs Denkmaschine Watson, die 2011 beim Fernseh-Quizspiel "Jeopardy!" gewann. Denn Alpha-Go spielte nicht nur brillant Go, sondern hatte sich das weitgehend selbst beigebracht: mit einer Methode namens Deep Learning, die mit ihren erstaunlichen Erfolgen seit einigen Jahren die gesamte Forschung an künstlicher Intelligenz dominiert.

Dieses "tiefe Lernen" basiert auf künstlichen neuronalen Netzwerken, die im Aufbau sehr entfernt dem Gewirr von Nervenzellen im menschlichen Gehirn ähneln: Sie bestehen aus Zellen, die miteinander verbunden sind und Informationen verarbeiten. "Tief" wird das Netzwerk durch die Anzahl Schichten, in denen solche Zellen angeordnet sind, das können unter Umständen Hunderte sein.

Zu Beginn ist ein solches Netzwerk von maximaler Einfalt. Wenn es etwa Bilder kolorieren soll, bekommt es als Input ein schwarz-weißes Bild, das in Signale umgerechnet wird, die dann wiederum im Netzwerk von Schicht zu Schicht auf weitgehend zufällige Weise verarbeitet und weitergegeben werden. Im Output ist dann das Meer gelb, der Himmel grün und der Strand rosa, keine beeindruckende Leistung. Doch aus Fehlern wird man klug: Der Computer vergleicht dieses Ergebnis mit dem korrekten, farbigen Bild, und passt daraufhin die Verbindungen und Mechanismen im Netzwerk so an, dass das Ergebnis dem gewünschten Bild näher kommt. Wen man diesen Vorgang zigtausendfach wiederholt, ist das Netzwerk am Ende in der Lage, beliebige Bilder zu kolorieren, mit sehr guten Ergebnissen.

Und das, obwohl der Computer keine Ahnung hat, warum das Meer blau oder ein Baumstamm braun sein sollte; es ist ihm auch egal, mit den Begriffen "Meer" oder "Baumstamm" kann er nichts anfangen. Aber er hat gelernt, wiederkehrende Muster zu erkennen und sie in die gewünschten Ergebnisse zu übersetzen. Auf die gleiche Weise können Deep-Learning-Netzwerke Objekte auf Bildern identifizieren, das Alter von abgebildeten Menschen schätzen, Texte übersetzen oder Robotern beim Umgang mit Menschen helfen, und das besser, als es je zuvor gelungen ist. Alles, was sie dazu brauchen, sind große Datensätze fürs Training - Unmengen an beschrifteten Bildern, Fotos von Menschen mit Altersangabe, Sätze in zwei Sprachen, Alltagssituationen.

Viele der Methoden, die heute eingesetzt werden, sind eigentlich alt; aber erst im Zeitalter von billigen, leistungsfähigen Computern und riesigen Datensätzen für das Training haben sie sich durchgesetzt. Die Grundidee entwickelte der ukrainische Mathematiker Alexej Ivakhnenko in den Sechzigerjahren, umgesetzt und weitergebracht wurde sie unter anderem in den Neunzigern in einer Gruppe an der TU München, die damals Jürgen Schmidhuber leitete. Mehrere der Forscher, die heute bei Google an künstlicher Intelligenz arbeiten, haben bei ihm promoviert.

Dem Team gelang es damals, neuronale Netze mit einer Art Kurzzeitgedächtnis auszustatten. "Darauf basiert heute die Spracherkennung von Google und anderen", sagt Schmidhuber. Trotzdem will er die jüngsten Erfolge nicht überbewerten: "Letztendlich ist Deep Learning nur Mustererkennung." Für eine echte künstliche Intelligenz, die mit der Welt interagieren kann und sich Gedanken über die Zukunft macht, reiche das nicht. "Aber das kriegen wir auch noch hin", sagt Schmidhuber.

Was die Anwendungen angeht, scheinen dem Maschinenlernen jedenfalls wenige Grenzen gesetzt zu sein. Auf vielen Gebieten hat die Methode die "klassische" künstliche Intelligenz überholt, die eher unzählige feste Regeln einprogrammiert, statt auf die Macht der Statistik und die Fähigkeiten des Computers zu vertrauen.

Firmen wie Google und Facebook stecken viel Energie und Aufwand in die Entwicklung

Darum muss Seongyong Koo erst eine Weile nachdenken, wenn man ihn fragt, wofür sich Deep Learning nicht eignet. Dann fällt dem Computerwissenschaftler, der an der Universität Bonn an autonomen intelligenten Systemen forscht, doch noch etwas ein: billige Roboter. "Deep Learning braucht viel Rechenzeit, das lohnt sich nicht für einfache Systeme", sagt er. Aber das war es dann auch. "Die Erfahrung hat einfach gezeigt, dass Deep Learning besser funktioniert als andere Ansätze", sagt er.

Dass das Maschinenlernen mit neuronalen Netzen einen solchen Boom erlebt, liegt allerdings auch an der Macht der Masse. Firmen wie Google und Facebook sind mit Wucht in das Thema eingestiegen, sie haben hervorragende Forscher engagiert und offene Programm-Bibliotheken entwickelt, aus denen sich nun jeder Wissenschaftler die passenden Bausteine ziehen kann. Wenn Koo seinen Robotern etwas beibringen will, kann er fertig trainierte neuronale Netze verwenden.

Trotzdem glaubt Koo ebenfalls, dass auch die neue künstliche Intelligenz noch lange nicht das kann, was das menschliche Gehirn leistet. "Menschen müssen sich selbst neue Information beschaffen, sie haben Motivationen und Wünsche, die sie antreiben", sagt Koo. Davon sind Maschinen tatsächlich noch sehr weit entfernt. Ein beruhigender Gedanke, wenn man darüber nachdenkt, wie schnell sie in letzter Zeit aufgeholt haben.

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: