Künstliche Intelligenz Maschinen wie wir

Lee Sedol South Korean professional Go player Lee Sedol is seen on TV screens during the Google DeepMind Challenge Match against Google's artificial intelligence program, AlphaGo, at the Yongsan Electronic store in Seoul, South Korea, Wednesday, March 9, 2016. Google’s computer program AlphaGo defeated its human opponent, Lee, in the first game of their highly anticipated five-game match.(AP Photo/Ahn Young-joon)

(Foto: AP)

Die Erfolge der neuen Computerprogramme beim asiatischen Brettspiel Go markieren einen Schwellenbruch. Das wird bald die ganze Welt merken.

Von Patrick Illinger

Was muss wohl passieren, damit ein bescheiden auftretender, ausgesucht höflicher Asiate beide Hände auf die Stirn klatscht und zutiefst frustriert den Kopf schüttelt? Keine Frage, hier ist verlorene Ehre im Spiel. Fan Hui, der dreifache Europäische Großmeister im Go, einem asiatischen Brettspiel, er hat tatsächlich verloren. Wenn es denn wenigstens gegen einen anderen Großmeister gegangen wäre! Doch der Gegner, dem Fan Hui im Oktober vergangenen Jahres 0:5 unterlag, war die Software Alpha Go aus dem Google-Forschungslabor Deep Mind.

"Nachdem ich das erste Spiel verloren hatte, dachte ich: Vielleicht kämpfe ich zu wenig. Tatsächlich spiele ich lieber langsam. Als wir das zweite Spiel begannen, habe ich daher gekämpft." Doch auch diese Partie ging verloren. "Daher beschloss ich, in den folgenden Spielen durchzukämpfen. Aber ich habe alle Spiele verloren", sagt der in China geborene Franzose Fan Hui mit einem bescheidenen Lächeln, das seine Enttäuschung kaum verbirgt.

Gedemütigt wurde nicht nur der Go-Meister. Alpha Go hat den menschlichen Geist an sich beschämt. Denn der Computer hat nicht allein mit schierer Rechenleistung gewonnen, sondern mit einer Software, die für eine neue Phase in der Evolution der künstlichen Intelligenz (KI) steht: Programme lösen sich von starren Algorithmen und fangen an, ein bisschen wie Menschen zu denken. "Wir hatten keine Ahnung, wie stark unser Programm sein würde. Schließlich machen menschliche Spieler sehr unberechenbar alle möglichen verrückten und kreativen Züge" sagt Demis Hassabis, Chef von Deep Mind.

Gerade Go galt immer noch - anders als Schach - als eines der letzten Bollwerke des menschlichen Geistes. Denn nur auf den ersten Blick ist das Spiel simpel. So gibt es nur völlig identische, schwarze und weiße Spielsteine, dagegen keine Türme, Läufer oder Springer. Nur Nullen und Einsen würde man in der Computerwelt sagen. Und das Spielfeld ist ein regelmäßiges quadratisches Gitter mit 19 mal 19 Knotenpunkten. Perfekt geeignet für einen Mikroprozessor, sollte man denken, der schließlich mit Bits, Bytes und logisch verknüpften Leiterbahnen arbeitet.

Die Zahl von insgesamt 361 Punkten, auf denen die Spielsteine zu platzieren sind, klingt zudem überschaubar. Und ein gelegter Spielstein darf nicht mehr auf dem Brett herumgeschoben werden, anders als etwa beim Spiel Mühle. Auch das Ziel des Spiels mutet einfach an: Man muss am Ende mit den eigenen Spielsteinen mehr Raum auf dem Brett eingenommen haben als der Gegner. Dabei dürfen Gefangene gemacht werden: Umzingelte gegnerische Steine werden vom Brett genommen. Die Regeln versteht jeder binnen weniger Minuten. Doch wer als Neuling ahnen will, wie vertrackt das Spiel ist, kann sich schon von einer App auf einem verkleinerten, nur neun mal neun Punkte großen Spielfeld frustrieren lassen.

Das Spiel offenbart menschliche Schwächen. Aggression und Ungeduld werden bestraft

Bizarrerweise zwingt Go selbst die modernsten Supercomputer in die Knie. Sogar Rechenzentren, die Großraumflugzeuge entwerfen oder das Weltklima der kommenden Jahrzehnte prognostizieren, scheiterten bislang im Kampf gegen die menschlichen Go-Meister. Für die elektronischen Gehirne ist Go eine viel größere Herausforderung als zum Beispiel Schach, in dem der IBM-Supercomputer bereits 1997 den damals amtierenden Weltmeister Garri Kasparow deklassierte.

Go ist, so schlicht das Spiel auch wirkt, eine mit Prozessoren und Algorithmen nicht vollständig lösbare Aufgabe. Ein Grund dafür ist, dass es mehr Möglichkeiten gibt, die Spielsteine auf dem Brett zu platzieren, als es Atome im Universum gibt. Jeder Stein kann auf jeden Kreuzungspunkt des Spielfelds gelegt werden. Im Schnitt stehen einem Spieler somit 200 Möglichkeiten für den nächsten Zug offen, dem Gegner danach ebenso. Das ist etwa das Zehnfache der im Schach möglichen Züge. Geht es zweimal hin und her, setzen also Weiß und Schwarz abwechselnd je zwei Steine auf das Go-Brett, gibt es rund 1,6 Milliarden mögliche Varianten für diese Zugfolgen.

Go ist ein Spiel, bei dem alle Informationen offenliegen. Schließlich gibt es anders als bei Poker, Skat, Backgammon oder Monopoly keine verdeckten Karten, keine Unbekannten und auch keinen Würfel. Alles, was über die aktuelle Spielsituation zu wissen ist, liegt auf dem Brett. Doch in dem verzwickten Muster der platzierten Spielsteine auch nur zu erkennen, welcher Spieler gerade die Nase vorne hat, ist eine enorme Herausforderung. Es ist gut möglich, dass ein Spieler, der soeben in einer Umzingelung eine Handvoll Steine an den Gegner verloren hat, wenige Spielzüge später uneinholbar über das Brett herrscht. Tatsächlich geht es weniger um das unmittelbare Schlagen der gegnerischen Spielsteine, als um langfristige, strategische Landnahme. Gefangene macht man nur, wenn es sein muss, sagen erfahrene Go-Spieler.

Dennoch geht es in dem Spiel nicht nur um Kalkulation. Es offenbart auch menschliche Schwächen und Eigenheiten. Ungeduld, Aggression. Alles wird bestraft. Kein Wunder, dass es in Asien als bewährtes Mittel zur Persönlichkeitsbildung gesehen wird. Das in China "Weichi" und in Korea "Baduk" genannte Spiel gilt im gesamten Fernen Osten als eine Kunst, die jeder gebildete Mensch beherrschen sollte.

Kein Wunder, dass ein derart komplexes, geradezu emotionales, intuitives und gefühlvolles Spiel nicht mit kalter Logik und starren Algorithmen zu beherrschen ist. "Wenn man Go-Spieler fragt, warum sie einen bestimmten Zug getan haben, sagen sie oft, es habe sich richtig angefühlt", erzählt der Go-Fan und Gründer von Deep Mind, Demis Hassabis.

Der Rechner lernt: Diese Kantenkombination ist eine Katze und jene ein Löwe

Genau deshalb braucht man einen Computer, der wie ein Mensch denkt, der sich löst vom "Wenn x, dann y"-Prinzip klassischer Computerlogik. Manchmal ist y die Lösung, aber manchmal auch z oder ein ganz anderer Buchstabe aus dem Alphabet. Es muss ein Rechner sein, der nicht nur für einen Zweck programmiert ist, sondern wie ein biologisches Gehirn verschiedene Fähigkeiten erlangen kann. Dafür eignen sich sogenannte neuronale Netze, deren Grundidee KI-Forscher bereits vor 25 Jahren entwickelt haben.

Die biologisch inspirierten neuronalen Netzwerke sind fähig zum sogenannten Deep Learning. Das heißt zum einen so, weil die Entwickler kluge Computerprogramme traditionell nach dem imaginären "Deep Thought"-Weltrechner des Schriftstellers Douglas Adams ("Per Anhalter durch die Galaxis") benennen. "Aber es gibt auch einen inhaltlichen Grund", sagt der IT-Experte Henrik Klagges, Mitgründer der Münchner Softwareschmiede TNG. "Es geht darum, tiefe Stapel aus vielen informationsverarbeitenden Schichten zu bauen." Jede einzelne Schicht besteht aus vielen winzigen, simulierten Nervenzellen, die nach und nach ein Muster - etwa ein Foto in Pixel-Darstellung - analysieren. Dabei erfolgt dieser Prozess in vielen Schritten. Dies erlaubt eine überraschend effiziente Arbeitsteilung: Die ersten, oberen Schichten erledigen noch simple und konkrete Voraufgaben; sie gruppieren zum Beispiel ähnliche Pixel oder registrieren Helligkeitsunterschiede. Aber dank dieser Vorleistung können die tieferen Schichten zunehmend komplexere und abstraktere Muster erkennen, zum Beispiel Kanten oder Kantenkombinationen. Irgendwann ist das System dann klug genug, um anhand einer kompakten Kantenkombination von alleine zu unterscheiden: Das hier ist jetzt eine Katze, kein Löwe (siehe Grafik rechte Seite).

Damit die Schichten ihre Teilaufgaben lösen können, muss man sie allerdings anlernen. Dazu nimmt man Trainingsbeispiele. Man füttert den Computer mit Millionen Fotos etwa von Katzen oder Segelflugzeugen und teilt ihm mit, was er da sieht. Irgendwann hat dann seine Software auch das Konzept "Katze" verstanden. "Hat man genug Beispiele und sehr, sehr schnelle Spezialcomputer, wie es zum Beispiel moderne Grafikkarten sind, dann funktioniert das seit etwa 2012 gespenstisch gut", erläutert Klagges.

Diese Art von Maschinenlernen lässt sich nun besonders gut auf Go übertragen. Die Positionen auf dem Go-Brett mit den leeren Feldern sowie den schwarzen und weißen Steinen können die Deep-Learning-Schichten ebenso wie Katzenbilder verarbeiten. Nur muss diesmal der Computer informiert werden, was denn gute oder schlechte Positionen und Züge sind. Dazu verwenden die Software-Entwickler die Datenozeane, die sich in der extrem großen Anzahl von Go-Servern finden, die an das Internet angeschlossen sind.

Nachdem AlphaGo 13 Millionen Partien durchgekaut hatte, spielte es wie ein Großmeister

Allerdings sind die möglichen Positionen so zahlreich und die Komplexität so groß, dass weitere Werkzeuge zum Einsatz kommen. Das sogenannte Policy Network schlägt von den bis zu dreihundert möglichen Spielzügen auf dem Brett eine Handvoll vor. Das Value Network bewertet dann die daraus resultierenden Spielstellungen. Beide Netzwerke werden dann mit dem Monte-Carlo-Verfahren kombiniert, ein in der Wissenschaft übliches Verfahren, um zufällige statistische Vorgänge zu simulieren. Physiker zum Beispiel simulieren mit Monte-Carlo-Algorithmen, wie Elementarteilchen in Detektoren wechselwirken. Im Fall von Go picken die Monte-Carlo-Algorithmen eine für den Computer beherrschbare Zahl von künftigen Zugfolgen heraus, um zu prüfen, ob ein Spielzug sich im weiteren Verlauf wahrscheinlich als vorteilhaft erweisen wird.

Googles Alpha Go hat nach den Berichten seiner Entwickler rund 13 Millionen Go-Partien aus den Datenbanken durchgekaut und mit insgesamt 13 Schichten analysiert. So hat das Programm Großmeister-Niveau erreicht. Danach spielte die Software noch Millionen Partien gegen Varianten ihrer selbst, um festzustellen, welche Strategien erfolgreichsten sind. Das erinnert an den Dr. B. aus Stefan Zweigs "Schachnovelle". Als er in Isolationshaft ein Buch mit Schachpartien in die Hände bekommt, lernt er dies zunächst auswendig. Dann lässt er mit zunehmender Intensität seine beiden Gehirnhälften Partien gegeneinander spielen. Doch Alpha Go ist Dr. B. weit voraus. Ein fleißiger Mensch schafft vielleicht 1000 Partien im Jahr, der Computer schafft das in Sekunden. Er lernt ungleich intensiver - und kann sich alles merken.

Die Implikationen von Deep Learning sind gewaltig. Nicht nur für Brettspiele, sondern für jede Form von Mustererkennung und viele Arten von Wissensarbeit an sich. Schon bald könnten Übersetzer, Pathologen, Mitarbeiter von Call Centern weitgehend durch Computer ersetzt werden. Ihre Kunden werden es vielleicht so wenig merken wie der Go-Europameister Fan Hui: "Wenn es mir niemand erzählt hätte, dann hätte ich meinen Gegner für einen etwas seltsamen aber starken Gegner gehalten. In jedem Fall aber für einen Menschen." Und die Entwicklung wird weitergehen: Irgendwann werden die Computer womöglich auf Ideen kommen, von denen niemand weiß, wie sie entstanden sind und was sie bewirken werden.