Süddeutsche Zeitung

Zukunft:Maschinen, die erwachsen spielen

Lesezeit: 4 min

Die Debatten über künstliche Intelligenz nehmen neue Fahrt auf.

Von Andrian Kreye

Wer hat Angst vor der künstlichen Intelligenz? Wie so oft bei Zukunftsdebatten geht es auch bei dieser Frage weniger um Technik als um die Menschen, die sich über sich selbst Gedanken machen. Seit Maschinen lernen können, seit Computer also ohne die Hilfe von Programmierern ihre Fähigkeiten verbessern, hat diese Angst ganz neue Dimensionen bekommen.

In Literatur und Film gibt es sie schon lange. Das begann mit dem Mythos des Golem im Mittelalter und ging über Mary Shelleys "Frankenstein" und Stanley Kubricks "2001" bis zur "Matrix"-Trilogie und der jüngsten Welle der Science-Fiction-Filme, die derzeit in die Kinos drängt.

Jetzt haben sich allerdings zwei gewichtige Stimmen aus Wissenschaft und Technik zum Thema gemeldet. Der Unternehmer und Elektroauto-Pionier Elon Musk warnte vor "beängstigenden Folgen". Das ist beunruhigend, weil er gerade selbst viel Geld in die Entwicklung künstlicher Intelligenz investiert. Und der Physiker Stephen Hawking prophezeite neulich wieder, dass die künstliche Intelligenz das Ende der Menschheit bedeuten könne. Das ist noch beunruhigender, weil man Stephen Hawking zutraut, dass er etwas vom Lauf der Wissenschaftsgeschichte versteht.

Aber es gibt auch nach wie vor Euphoriker wie den Futuristen Ray Kurzweil. Sie sehnen nichts sehnlicher herbei als einen Erweckungsmoment, der die Maschinen mit einem dem Menschen ebenbürtigen Geist beseelt. Die große Hoffnung dabei ist, dass sie als rationale Wesen den emotional verwirrten Menschen überlegen sind. Einen Begriff für diesen Erweckungsmoment gibt es auch schon - die Singularity.

Nur gut, dass sich jetzt auch Stimmen der Vernunft melden. Jaron Lanier hat diese neue Runde der Debatte angestoßen, jener amerikanische Forscher und Theoretiker, der im vergangenen Jahr den Friedenspreis des deutschen Buchhandels bekam, weil er sich als Internetpionier so kritisch mit dem Internet auseinandergesetzt hat. Im Debattenforum edge.org ist von ihm ein Vortrag mit dem Titel "The Myth of AI" ("Der Mythos der künstlichen Intelligenz") erschienen.

"Es gibt da eine dominierende Subkultur, die eine der reichsten, produktivsten und einflussreichsten Subkulturen der Technikwelt ist", führt Lanier aus. "Sie unterstützt die Idee, dass es eine Entsprechung zwischen bestimmten Algorithmen und Menschen gibt, und einen historischen Determinisimus, dass es unvermeidlich sei, dass wir Computer bauen werden, die klüger und besser sind als wir, und die deswegen die Macht von uns übernehmen werden." Für Lanier ist diese Mythologie lächerlich. Die wichtigste Funktion künstlicher Intelligenz sei derzeit die Ordnung jener Datenfluten, die als Big Data ihre eigene mythische Größe geworden sind.

Kein Roboter wird sich seiner selbst bewusst werden, kein Terminator wird uns durch die Straßen jagen

Hinter dem, was er da lakonisch als Inselbegabung der Computer abtut, steckt allerdings ein großes Unbehagen. Die Erkenntnis, dass es algorithmische Supermächte wie die NSA, Google oder Facebook gibt, die mit den Datenfluten das Leben der Menschen quantifizieren und so unter ihre Kontrolle bringen, hat in den vergangenen zwei Jahren weltweit zu einem Kulturpessimismus geführt, der die digitale Aufbruchsstimmung massiv gebremst hat. Die Ahnung, dass diese Kontrolle nicht von Menschen, sondern von künstlichen Intelligenzen herrührt, scheint die Erfüllung all der Zukunftsbilder zu sein, von denen man sich eigentlich sicher war, dass sie im Kino und im Roman gut aufgehoben sind.

Was sich hinter der gegenwärtigen Debatte um die künstliche Intelligenz eigentlich verbirgt, ist also eine Machtfrage. Daran ändert weder ihr wissenschaftlich-technischer Kern etwas noch die theologische Überhöhung mit dem Erweckungsmoment. Und dieser Moment wird nicht kommen. Hinter dem roten Dioden-Auge des Bordcomputers Hal 9000 aus Stanley Kubricks "2001" wird nie ein Geist erwachen, der sich seiner selbst bewusst werden wird. Kein Terminator wird die Menschen jagen, kein Cyborg ihnen ihren Platz in der Welt streitig machen.

Das sagt nicht nur Jaron Lanier, darin bestätigen ihn nun auch sehr viele kluge Menschen, die wirklich etwas von diesen Fragen verstehen. Etwa Rodney Brooks, emeritierter Professor für Robotik am Massachusetts Institute of Technology . "Künstliche Intelligenz ist keine Bedrohung, sondern ein Werkzeug", schreibt er. Den grundlegenden Irrtum sieht er darin, dass nur wenige Experten der künstlichen Intelligenz die Debatten führten. Daher habe kaum jemand im Blick, wie weit die Entwicklung wirklich fortgeschritten sei, und wie komplex die Konstruktion einer Intelligenz mit eigenem Willen und eigenen Empfindungen sei. "Wir sollten uns keine Sorgen machen, dass wir in den nächsten paar Hundert Jahren eine bösartige Intelligenz schaffen", schreibt er. Der Wissenschaftshistoriker George Dyson wiederum sieht einen grundlegenden Irrtum in der Debatte: "Das Gehirn, egal ob eines Menschen oder einer Fruchtfliege, ist kein digitaler Computer. Intelligenz ist kein Algorithmus."

Nein, die eigentliche Bedrohung sehen die, die sich wirklich auskennen, an einem ganz anderen Punkt. Der Harvard-Ökonom Sendhil Mullainathan schreibt: "Wir sollten nicht vor intelligenten Maschinen Angst haben, sondern vor Maschinen, die Entscheidungen fällen, für die sie nicht die angemessene Intelligenz haben." Oder wie es der Gründer der "X-Prize"-Wissenschaftspreise, Peter Diamandis, ausdrückt: "Ich habe keine Angst vor einer erwachsenen künstlichen Intelligenz, sondern vor einem Entwicklungsstand, der dem von 3- bis 5-Jährigen entspricht. Ich habe dreijährige Zwillinge. Die haben keine Ahnung, wenn sie beim Spielen etwas kaputt machen."

Die Debatte hat gerade erst begonnen. Was sie von all den Ängsten, Hoffnungen und Diskursen der Vergangenheit unterscheidet, ist aber weniger die philosophische oder gar theologische Folge technischer Entwicklungen. Es ist die Tatsache, dass dem technischen Fortschritt des 20. Jahrhunderts nun die praktischen Umsetzungen folgen. Der Kontrollverlust über lernfähige Maschinen wird marginal bleiben. Die Bedrohung durch Institutionen, die sie einsetzen, ist dagegen jetzt schon Realität. Immerhin - das Magazin für Wehrtechnik Defense One meldet gerade, dass das US-Militär künstliche Intelligenz zum Schlüsselthema für 2015 erklärt hat.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.2287727
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 02.01.2015
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.