The Edge Question 2015:Was denken Sie über Maschinen, die denken?

World chess champion Garry Kasparov studies the  board shortly before game two of the match against ..

In der Debatte um die künstliche Intelligenz gibt es Pessimisten, die eine Machtübernahme der Maschinen fürchten, und Optimisten, die auf die Erweckung des synthetischen Geistes hoffen. Der Sieg des Computers Deep Blue über den Schachmeister Garri Kasparov 1996 gilt als erster Schritt.

(Foto: Reuters)

Einmal im Jahr stellt der Literaturagent John Brockman Wissenschaftlern auf der Website edge.org eine Frage. Dieses Jahr geht es um künstliche Intelligenz. Hier eine Auswahl von Antworten.

Von David Gelernter, Peter Norvig und Douglas Coupland

Unberechenbar

Warum lässt sich das Sein nicht berechnen? Oder das Glück? Glück ist nicht berechenbar, weil es als Zustand eines physischen Objekts außerhalb der Welt der Berechnungen liegt. Computer und Software erschaffen und beeinflussen Physisches nicht. (Zwar können sie andere, gleichsam angehängte Maschinen dazu bewegen, dies zu tun. Doch was diese Maschinen verrichten, ist nicht die Leistung von Computern. Roboter können fliegen, Computer nicht. Zudem ist überhaupt nicht garantiert, dass irgendein computergesteuerter Apparat Menschen glücklich machen kann; aber das ist eine andere Geschichte.) Sein ist nicht berechenbar: eine wichtige Tatsache, die bislang übersehen wurde - nicht von ungefähr. Computer und der menschliche Geist existieren - wie etwa Kürbisse und Puccini - in unterschiedlichen Universen und sind daher kaum miteinander vergleichbar.

Kann es ohne das Sein trotzdem eine denkende Maschine geben? Nein. Unser Geist wird durch das Nachdenken und das Sein (oder Fühlen) definiert. Am oberen Ende des Spektrums - bei maximaler Wachsamkeit oder Konzentration - wird der Geist im Zustand des Nachdenkens alle Emotionen abwehren, die ihn ablenken könnten. Am unteren Ende der Skala rangieren jene Zustände und Aktivitäten, bei denen wir besonders wenig denken, etwa der Schlaf und das Träumen. Während wir halluzinieren, sind wir mit Eindrücken, häufig auch Gefühlen beschäftigt (Träume können äußerst emotional sein), in jedem Fall mit dem Fühlen oder, anders gewendet, mit dem Sein.

Warum braucht es so viel Platz, um solch eine simple Argumentation zu entfalten? (Und warum werden wahrscheinlich nur wenige Denker bereit sein, sie zu akzeptieren?) Vielleicht, weil sich die meisten Philosophen und Wissenschaftler nach einem Geist sehnen, der mit Fühlen und Sein nichts zu tun hat, weil er ausschließlich Denkleistungen erbringt. Dieser Wunsch ist so stark, dass seine Anhänger ihn am Ende mit der Wahrheit verwechselten. Philosophen sind nur Menschen.

David Gelernter, Computerwissenschaftler, Yale University

Die Antwort von Peter Norvig, Forschungschef von Google

Man muss die Frage anders stellen

Edsger Dijkstra hatte recht, als er 1984 sagte, die Frage, ob Maschinen denken können, sei "ungefähr so relevant wie die Frage, ob U-Boote schwimmen können". Er zielte darauf ab, dass es bei beiden Fragen ganz darauf ankommt, was man unter "schwimmen" oder eben "denken" versteht. Auf Englisch würde man nicht sagen, dass ein U-Boot "schwimmt", im Russischen aber schon. Für die Eigenschaften eines U-Bootes ist das unwichtig. Deshalb sollten wir lieber herausfinden, was Maschinen tun können und ob wir uns vor ihren Fähigkeiten fürchten sollten.

Pessimisten warnen davor, dass wir nicht wissen, wie wir sichere komplexe Systeme künstlicher Intelligenz erschaffen können. Da ist etwas dran. Wir wissen aber auch nicht, wie wir sichere Systeme erschaffen können, die nichts mit künstlicher Intelligenz zu tun haben. Jede komplexere Erfindung wird eine Mischung aus positiven Ergebnissen und nicht beabsichtigten Konsequenzen haben. Aber gibt es Besorgniserregendes, das nur die künstliche Intelligenz betreffen würde? Ich glaube, die interessanten Themen in dieser Hinsicht sind Anpassungsfähigkeit, Autonomie und Universalität der Systeme.

Lernende Maschinen können sich anpassen. Sie verändern sich, je nachdem, was sie hinzulernen. Anpassungsfähigkeit ist nützlich. Wir möchten zum Beispiel, dass unsere Rechtschreibkorrektur zügig neue Wörter wie "Bitcoin" lernt. Aber die Anpassung kann zu neuen Fehlern führen. Entwickler müssen deshalb lernen, mit Anpassungsfähigkeit umzugehen.

Die zweite Sorge gilt der Autonomie. Wenn künstliche Intelligenz allein agiert, können Fehler entstehen, die nicht passieren würden, wenn ein Mensch beteiligt wäre. Die Sorge ist ebenfalls ernst zu nehmen, doch auch hier gilt: Das ist keine Besonderheit der künstlichen Intelligenz. Wir machen dauernd Kompromisse, wenn wir autonom handelnde Technik einsetzen.

Die dritte Besorgnis gilt der Universalität der intelligenten Maschinen. 1965 schreibt I. J. Good, "eine ultraintelligente Maschine könnte selbst immer bessere Maschinen entwerfen; das würde dann eindeutig zu einer ,Intelligenzexplosion' führen, so dass die Intelligenz des Menschen weit abgeschlagen wäre. Deshalb wird die ultraintelligente Maschine die letzte Erfindung sein, die der Mensch machen muss."

Ich finde, in dieser Aussage wird "Intelligenz" zu einer überragenden Superfähigkeit stilisiert. Ich glaube, die Realität ist etwas differenzierter. Die klügste Person, die ich kenne, ist nicht zwangsläufig die erfolgreichste. Die klügste Politik ist nicht immer die, die umgesetzt wird. Und: Ich kenne viele Probleme, die sich mit Intelligenz überhaupt nicht bewältigen lassen, denn ganz egal, wie clever man ist, wird man niemals ausreichende Rechenkraft haben, um diese Probleme zu lösen.

Aber natürlich gibt es viele Probleme, bei denen Intelligenz sehr hilft. Computer sind Werkzeuge für eine komplexe Welt. Künstliche Intelligenz als Teil unseres Baukastens verändert die Dinge nicht grundlegend. Mein Vorschlag ist: Lasst uns vorsichtig sein, wenn wir Mechanismen entwerfen, und lasst uns so oder so die besten Werkzeuge verwenden. Ganz unabhängig davon, ob auf einem Gerät der Sticker "Enthält künstliche Intelligenz" klebt.

Peter Norvig, Forschungschef, Google

Die Antwort von Schriftsteller Douglas Coupland

Was bedeutet es, Mensch zu sein? Obwohl es mittlerweile sieben Milliarden von uns gibt, hat auf diese Frage merkwürdigerweise noch niemand eine zufriedenstellende Antwort gefunden. Unbestreitbar ist indes, dass wir Menschen beharrlich Dinge entwickeln, mit denen sich unser Menschsein immer neu und immer anders ausdrücken lässt. Das Radio bescherte uns Hitler und die Beach Boys. Stacheldraht und Klimaanlagen bescherten uns das westliche Nordamerika. Das Internet bescherte uns einen verschwindenden nordamerikanischen Mittelstand und Katzenbilder.

Andauernd hört man nun, neue Technologien würden uns befremden. Dabei ist es ja nun mal so, dass nicht irgendwelche Außerirdische im Ufo kamen und uns die mitbrachten - wir haben sie selbst geschaffen. Deswegen können sie uns im besten Sinne nur vertraut sein. Und hier kommt die künstliche Intelligenz ins Spiel. Viele Menschen gehen davon aus, dass denkende Maschinen einmal über eine Intelligenzform verfügen werden, die der unseren gänzlich fremd gegenübersteht. Das allerdings ist überhaupt nicht möglich. In Ermangelung wohlwollender Aliens, werden am Ende allein wir Menschen jede Form von neu aufkommender künstlicher Intelligenz geschaffen haben. Insofern wird sie, in welcher Weise auch immer, unser Menschsein und die unverkennbaren Charakteristika unserer Spezies spiegeln.

Deswegen denke ich, dass Leute, die sich wegen fremder Intelligenz und Singularität sorgen, eigentlich Angst vor all unseren unschönen Facetten haben, welche momentan noch unausgesprochen bleiben, mit den Möglichkeiten künstlicher Intelligenz aber offen zutage treten werden.

Douglas Coupland, Schriftsteller, Vancouver

Mehr als 100 Antworten werden am Samstag auf der Website edge.org veröffentlicht

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: