The Edge Question 2015:Die Antwort von Peter Norvig, Forschungschef von Google

Man muss die Frage anders stellen

Edsger Dijkstra hatte recht, als er 1984 sagte, die Frage, ob Maschinen denken können, sei "ungefähr so relevant wie die Frage, ob U-Boote schwimmen können". Er zielte darauf ab, dass es bei beiden Fragen ganz darauf ankommt, was man unter "schwimmen" oder eben "denken" versteht. Auf Englisch würde man nicht sagen, dass ein U-Boot "schwimmt", im Russischen aber schon. Für die Eigenschaften eines U-Bootes ist das unwichtig. Deshalb sollten wir lieber herausfinden, was Maschinen tun können und ob wir uns vor ihren Fähigkeiten fürchten sollten.

Pessimisten warnen davor, dass wir nicht wissen, wie wir sichere komplexe Systeme künstlicher Intelligenz erschaffen können. Da ist etwas dran. Wir wissen aber auch nicht, wie wir sichere Systeme erschaffen können, die nichts mit künstlicher Intelligenz zu tun haben. Jede komplexere Erfindung wird eine Mischung aus positiven Ergebnissen und nicht beabsichtigten Konsequenzen haben. Aber gibt es Besorgniserregendes, das nur die künstliche Intelligenz betreffen würde? Ich glaube, die interessanten Themen in dieser Hinsicht sind Anpassungsfähigkeit, Autonomie und Universalität der Systeme.

Lernende Maschinen können sich anpassen. Sie verändern sich, je nachdem, was sie hinzulernen. Anpassungsfähigkeit ist nützlich. Wir möchten zum Beispiel, dass unsere Rechtschreibkorrektur zügig neue Wörter wie "Bitcoin" lernt. Aber die Anpassung kann zu neuen Fehlern führen. Entwickler müssen deshalb lernen, mit Anpassungsfähigkeit umzugehen.

Die zweite Sorge gilt der Autonomie. Wenn künstliche Intelligenz allein agiert, können Fehler entstehen, die nicht passieren würden, wenn ein Mensch beteiligt wäre. Die Sorge ist ebenfalls ernst zu nehmen, doch auch hier gilt: Das ist keine Besonderheit der künstlichen Intelligenz. Wir machen dauernd Kompromisse, wenn wir autonom handelnde Technik einsetzen.

Die dritte Besorgnis gilt der Universalität der intelligenten Maschinen. 1965 schreibt I. J. Good, "eine ultraintelligente Maschine könnte selbst immer bessere Maschinen entwerfen; das würde dann eindeutig zu einer ,Intelligenzexplosion' führen, so dass die Intelligenz des Menschen weit abgeschlagen wäre. Deshalb wird die ultraintelligente Maschine die letzte Erfindung sein, die der Mensch machen muss."

Ich finde, in dieser Aussage wird "Intelligenz" zu einer überragenden Superfähigkeit stilisiert. Ich glaube, die Realität ist etwas differenzierter. Die klügste Person, die ich kenne, ist nicht zwangsläufig die erfolgreichste. Die klügste Politik ist nicht immer die, die umgesetzt wird. Und: Ich kenne viele Probleme, die sich mit Intelligenz überhaupt nicht bewältigen lassen, denn ganz egal, wie clever man ist, wird man niemals ausreichende Rechenkraft haben, um diese Probleme zu lösen.

Aber natürlich gibt es viele Probleme, bei denen Intelligenz sehr hilft. Computer sind Werkzeuge für eine komplexe Welt. Künstliche Intelligenz als Teil unseres Baukastens verändert die Dinge nicht grundlegend. Mein Vorschlag ist: Lasst uns vorsichtig sein, wenn wir Mechanismen entwerfen, und lasst uns so oder so die besten Werkzeuge verwenden. Ganz unabhängig davon, ob auf einem Gerät der Sticker "Enthält künstliche Intelligenz" klebt.

Peter Norvig, Forschungschef, Google

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Süddeutsche Zeitung
  • Twitter-Seite der SZ
  • Facebook-Seite der SZ
  • Instagram-Seite der SZ
  • Mediadaten
  • Newsletter
  • Eilmeldungen
  • RSS
  • Apps
  • Jobs
  • Datenschutz
  • Kontakt und Impressum
  • AGB