Wettkampf Endspiel

Beim Go-Turnier in Seoul kämpft der Koreaner Lee Sedol für die Ehre des menschlichen Geistes.

Von Kai Kupferschmidt

Die nächste Runde im Wettkampf Mensch gegen Maschine wird in einem Konferenzraum des Hotels "Vier Jahreszeiten" in Seoul ausgetragen. Das Schlachtfeld: ein Brett mit 19 mal 19 Feldern. Die Disziplin: das uralte chinesische Spiel "Go". Fünf Spiele soll das Turnier umfassen. Das erste davon beginnt am 9.

März um ein Uhr mittags. Die Menschheit schickt Lee Sedol ins Rennen, den besten Go-Spieler seiner Generation und in Südkorea so bekannt wie Michael Schumacher in Deutschland. Auf der anderen Seite wird Aja Huang, ein junger Programmierer beim Unternehmen Google Deep Mind, die Steine platzieren. Doch Huang ist nur ein Handlanger. Er wird ausführen, was das Programm Alpha Go ihm einflüstert. Alpha Go ist Lees wirklicher Widersacher, ein komplexes Computerprogramm. Es hat bereits im vergangenen Jahr geschafft, was bis dahin keiner Software gelungen war: einen Go-Profi zu besiegen. Die Welt der künstlichen Intelligenz ist seither nicht mehr die gleiche. "Forscher hatten den Durchbruch erst in zehn, zwölf oder 15 Jahren erwartet", sagt der Hirnforscher Christof Koch, Leiter des Allen-Institute for Brain Sciences in Seattle.

Bei dem Turnier geht es nur vordergründig um eine Million Dollar Preisgeld. In Wahrheit geht es um viel mehr: um einen Markt, der Milliarden wert ist und um einen Beweis, was künstliche Intelligenz inzwischen leisten kann. Manche sehen schon Programme am Horizont, die schlauer sind als Menschen. Superintelligente Maschinen, die den Lauf der Geschichte ändern könnten.

Es ist nicht das erste Duell eines Menschen gegen eine Maschine. Im Mai 1997 besiegte IBMs Supercomputer Deep Blue den Schachweltmeister Garri Kasparow. 2011 triumphierte ein anderer IBM-Computer, Watson, in der amerikanischen Quizshow Jeopardy im Wettstreit gegen die Champions Brad Rutter und Ken Jennings. "Aber dieser Wettkampf ist viel bedeutender als die zwei Duelle", sagt Murray Shanahan, ein Computerwissenschaftler am Imperial College London. "Das hier verwendete Programm hat viel mehr Anwendungen und ist viel mächtiger als etwa Deep Blue."

Das glaubt auch Demis Hassabis, der die Firma Deep Mind mitbegründet hat und mit ihrem Erfolg verknüpft ist wie kaum ein anderer. Auf internationalen Kongressen ist es der 39-Jährige, der die Arbeit des Londoner Start-Ups erklärt. Beim Duell Deep Blue gegen Kasparow habe ihn Kasparow im Grunde mehr beeindruckt, erklärte Hassabis kürzlich in Washington. "Kasparow kann eine Million andere Dinge tun, wie zum Beispiel Auto fahren und Schnürsenkel binden." Dagegen wäre der Schach-Computer selbst mit einem einfachen Spiel wie Tic-Tac-Toe überfordert.

Tatsächlich sei die Sicht auf die künstliche Intelligenz in der Vergangenheit sehr eng gewesen, sagt Jonathan Schaeffer, Computerwissenschaftler an der University of Alberta in Kanada. "Wir haben im Grunde Computer herangezogen, die inselbegabt sind", bedauert der Forscher. Programme, die in einer Sache übermenschlich gut sind, sonst aber nichts können. Hassabis möchte dagegen eine künstliche Intelligenz schaffen, die ganz unterschiedliche Dinge lernen kann. "Artificial general intelligence" nennen Forscher das. Oder wie Hassabis gern sagt: "Wir wollen das Problem der Intelligenz lösen und das dann nutzen, um alle anderen Probleme zu lösen."

Hassabis selbst verkörpert wie kaum ein anderer jene menschliche Intelligenz, von der Computer noch weit entfernt sind. In London als Sohn von Einwanderern geboren (der Vater stammt aus Zypern, die Mutter aus Singapur), hat Hassabis eine einzigartige Karriere hingelegt. Als Kind programmierte er Computerspiele, mit 13 war er Schachmeister, mit 17 leitete er beim Unternehmen Bullfrog das Team, welches das Simulationsspiel "Theme Park" programmierte, eines der ersten Computerspiele, die künstliche Intelligenz nutzten. Er hat in Cambridge Informatik studiert, mehrere Firmen gegründet und er spielt neben Schach auch Go und Poker auf höchstem Niveau.

Kein Wunder also, dass Hassabis auch die Grundlagen der menschlichen Intelligenz erforscht hat, um einen intelligenteren Computer zu bauen. Nach einigen Jahren in der Spiele-Industrie studierte Hassabis am University College London kognitive Neurowissenschaften und arbeitete als Hirnforscher.

In einer Studie untersuchte er Patienten, deren Gedächtnis beeinträchtigt war, weil bei ihnen eine wichtige Hirnstruktur, der Hippocampus, verletzt war. Der Vergleich mit gesunden Menschen zeigte, dass die Patienten auch schlechter darin waren, sich ein Ereignis in der Zukunft, etwa einen Tag am Strand auszumalen. Die Studie legte nahe, dass das Gehirn Szenarien für die Zukunft tatsächlich aus Erinnerungen zusammensetzt; sie wurde vom Fachmagazin Science zu einem der Durchbrüche des Jahres gewählt. Hassabis nutzt die Erkenntnisse auch für seine Arbeit: "Ein Teil dessen, was wir machen, ist im Grunde den Hippocampus nachzuahmen", sagt er.

2010 gründete Hassabis mit Shane Legg und Mustafa Suleyman in London das Unternehmen Deep Mind. Sie gewannen Investoren wie die Internetgurus Elon Musk und Peter Thiel und scharten in kurzer Zeit Top-Talente aus aller Welt um sich. 2014 kaufte Google das Start-Up. Etwa eine halbe Milliarde Euro soll der Internetriese bezahlt haben. Spätestens im Februar 2015 war offensichtlich, warum. Damals verkündeten Hassabis und Kollegen ihren ersten großen Durchbruch. Im Fachblatt Nature beschrieben sie einen Algorithmus, der gelernt hatte, in Dutzenden klassischer Atari-Videospiele mindestens so gut zu spielen wie Menschen. Das Beeindruckende: Das Programm erhielt die Pixel als einzigen Input, genau wie der menschliche Spieler. Das Ziel des Programms sei es, den Punktestand zu maximieren sagt Hassabis. Alles andere müsse es selbst lernen. "Das Programm weiß nichts über das Spiel oder was es tun soll."

In seinen Vorträgen zeigt Hassabis gern Videos, welche die Leistung des Programms illustrieren. Bei Breakout zum Beispiel muss der Spieler eine Wand zerstören, indem er immer wieder einen Ball dagegen prellt. Nach einhundert Spielen ist die Leistung wenig beeindruckend. "Man bekommt vielleicht den Eindruck, dass das System gerade zu verstehen beginnt, dass es das Paddel zum Ball bewegen muss", sagt Hassabis. Nach 300 Spielen spielt das Programm schon besser als ein Mensch. Nach 500 Spielen hat das Programm die optimale Strategie entdeckt: Die Wand an einer Seite zu durchbrechen, sodass der Ball die Wand von der Rückseite zerstören kann. Die Strategie war manchen Spielern bekannt, nicht aber den Programmierern, sagt Hassabis. "Das Programm, das sie geschrieben haben, hat ihnen etwas Neues beigebracht."

Anfang des Jahres verkündete Deep Mind schon den nächsten Durchbruch: Die Software Alpha Go hatte erstmals einen Go-Profi besiegt. Anders als Deep Blue, in das Menschen zahlreiche Fakten einprogrammiert hatten, hat Alpha Go das Spiel von null lernen müssen. "Das einzige was Alpha Go über das Spiel wusste, waren die Regeln", sagt Schaeffer. "Indem es Millionen oder Milliarden Mal gegen sich selbst spielte, hat es ein "Verständnis" für dieses Spiel entwickelt, das dem eines professionellen Go-Spielers entspricht."

40 Millionen

Menschen auf der Welt spielen Go, anderen Schätzungen zufolge sind es sogar 60 Millionen. Die meisten von ihnen leben in Ostasien, aber auch in Europa hat es in den letzten Jahren an Bedeutung gewonnen. In Deutschland soll es 20 000 Spieler geben. Ursprünglich stammt Go aus China, wo manche Autoren bereits in Annalen aus dem 4. Jahrtausend v. Chr. Hinweise auf das Spiel geben. Entsprechend ihrer Spielstärke werden insbesondere professionelle Spieler nach Rängen eingestuft. Die Meisterränge reichen vom 1. bis zum 9. Dan, der nur extrem selten verliehen wird. Treffen Spieler unterschiedlicher Stärke aufeinander, darf der Schwächere einige Steine vorab setzen.

Wie gut dieses "Verständnis" wirklich ist, dürfte das Turnier gegen Lee Sedol nun zeigen. Lee, der diese Woche seinen 33. Geburtstag gefeiert hat, gilt bis heute als einer der besten Spieler. Auf einer kleinen Insel im Südwesten Koreas geboren, lernte er Go als Kind von seinem Vater. Mit 12 wurde er Meister, mit 20 erreichte er den höchsten Meistergrad, den 9. Dan. Kein anderer Spieler hat das je so jung geschafft. Lee ist eine deutlich größere Herausforderung als Alpha Gos vorheriger Gegner, Fan Hui (2. Dan). Und Lee glaubt, dass er das Programm schlagen kann.

Auch Schaeffer räumt dem Profi gute Chancen ein: "Ich würde mein Geld wahrscheinlich auf den Menschen setzen", sagt er. "Einfach, weil das Programm noch so jung ist." Es sei aber nur eine Frage der Zeit, bis das Programm besser als Lee sei. Tatsächlich habe sich das Programm in den vergangenen Monaten immer weiter verbessert, sagt Hassabis. "Das verbessert sich auch jetzt gerade, in der Cloud, Spiel für Spiel."

Die nächste große Herausforderung sind Spiele, bei denen ein Programm nicht alle Informationen hat, wie etwa Poker oder Backgammon. "Ein Spiel wie Poker entspricht eher der realen Welt", sagt Jonathan Schaeffer. "In der Welt geht es um Zufall und um fehlende Informationen, um Täuschung und Bluffs." Die Technik hinter Alpha Go könnte auch bei diesen Spielen zu einem Durchbruch führen. Bisher lernten etwa Poker-Programme noch zu langsam, sagt Schaeffer. Es dauert Hunderte Runden, bis die Software etwas über seinen menschlichen Gegner gelernt hat, und bis dahin hat der Mensch sein Spielverhalten längst geändert. "Vielleicht erlaubt uns diese Technik jetzt den Lernprozess zu beschleunigen und das Verhalten eines Gegners schneller vorherzusagen", sagt Schaeffer.

Schon jetzt dürften die Algorithmen von Google Deep Mind die Welt verändern. Das Unternehmen hat inzwischen 200 Angestellte. Die meisten betreiben noch immer Grundlagenforschung, aber etwa jeder Vierte sucht nach Möglichkeiten, die Algorithmen bei Google einzusetzen. So könnten sie etwa die Ergebnisse von Suchmaschinen verbessern oder die Software in fahrerlosen Fahrzeugen unterstützen. Auch im Medizinbereich dürfte die Technik bald eingesetzt werden. Sie könnte etwa dabei helfen, Tumore bei Mammografien besser zu erkennen. In einer US-Klinik wird bereits Watson einsetzt - jener Computer, der sich im Fernsehquiz hatte durchsetzten können.

Doch den Hoffnungen stehen auch Ängste gegenüber. Was könnte künstliche Intelligenz in den Händen des Militärs bedeuten? Lassen sich superintelligente Maschinen auch Ethik und Moral einprogrammieren? Hassabis nimmt die Befürchtungen ernst. Eine seiner Bedingungen an Google vor der Übernahme war, die Technik niemals fürs Militär oder Nachrichtendienste zu nutzen.