Künstliche Intelligenz:Wesen und Werkzeuge

Mit künstlicher Intelligenz schafft sich der Mensch ein Mittel, das die Welt neu ordnet. Das zwingt ihn zum Handeln, sonst verliert er die Kontrolle.

Gastbeitrag von Daniel C. Dennett

Künstliche Intelligenz (KI) ist ein epochaler Technologiesprung, der die Menschheit vor ganz neue Fragen stellt, die keine Disziplin alleine beantworten kann. John Brockman, Agent für Wissenschaftsliteratur und Gründer des Debattenforums Edge.org hat das "Possible Minds"-Projekt ins Leben gerufen, das Natur- und Geisteswissenschaften zusammenführt, um KI und deren wahrscheinliche Ausformungen und Folgen zu ergründen. Das Feuilleton der SZ druckt Texte aus dem Projekt sowie europäische Reaktionen als Serie.

Daniel C. Dennett ist Professor für Philosophie und Direktor des Zentrums für Kognitionsforschung an der Tufts University in Medford, einem Vorort von Boston. Zuletzt erschien von ihm "Von den Bakterien zu Bach - und zurück: Die Evolution des Geistes" bei Suhrkamp. SZ

Der Mathematiker Norbert Wiener sah schon in den Vierzigerjahren Probleme mit künstlicher Intelligenz voraus, die seine optimistischeren Kollegen wie Alan Turing weitgehend übersahen. Die eigentliche Gefahr der KI, sagte er, "ist, dass solche Maschinen, die für sich selbst hilflos sein mögen, von Menschen oder Gruppen dazu benutzt werden können, ihre Kontrolle über die Spezies zu vergrößern, oder dass politische Führerfiguren versuchen werden, ihre Bevölkerungen nicht durch die Maschinen selbst zu kontrollieren, aber durch politische Methoden, die so schlicht und den Menschen gegenüber so gleichgültig sind, als seien sie mechanisch erzeugt."

Die Macht, so erkannte er, läge weniger in den Maschinen selbst, als in den Algorithmen, die auf ihnen laufen. Was also können wir tun? Wir müssen vor allem unsere Prioritäten überdenken, und zwar mithilfe der oft fehlerhaften, aber leidenschaftlichen Analysen von Leuten wie Norbert Wiener oder dem Informatiker Joseph Weizenbaum. Ein Schlüsselsatz ist dabei Wieners fast beiläufige Beobachtung, dass "solche Maschinen" ja "für sich selbst hilflos" seien. Denn wir schaffen Werkzeuge, keine Kollegen, und die große Gefahr ist, dass wir den Unterschied verkennen, den wir auf alle Fälle betonen sollten, indem wir ihn mit politischen und juristischen Mitteln deutlich machen und verteidigen.

Am besten erkennt man diesen Unterschied, wenn man betrachtet, welche - durchaus verständlichen - Fehler Alan Turing 1950 bei der Gestaltung seines berühmten Turing-Tests gemacht hat, mit dem man nachweisen können sollte, wann ein Computer menschliche Fähigkeiten erlangt. Dieser Test war eine Adaption seines Nachahmungsspieles, bei dem ein Mann, der verborgen ist und mit einem Schiedsrichter schriftlich kommuniziert, versucht, diesen davon zu überzeugen, dass er eine Frau ist, während eine ebenfalls verborgene Frau versucht, den Schiedsrichter davon zu überzeugen, dass sie die Frau ist.

Turing argumentierte, dass es eine ziemliche Herausforderung für einen Mann wäre (oder umgekehrt für eine Frau, die so täte, als sei sie ein Mann), zu verstehen, wie das andere Geschlecht denkt und handelt, was es mag und was es ignoriert. Was Turing nicht voraussah, ist die Macht einer selbstlernenden künstlichen Intelligenz, die sich einen großen, verwertbaren Wissensschatz aneignen kann, ohne dass sie ihn verstehen muss. Er sagte zwar, dass eine Maschine, die bei einem solchen Nachahmungsspiel einen Schiedsrichter davon überzeugen soll, dass sie ein Mensch ist, niemals ein menschliches Bewusstsein entwickeln würde, genauso wenig wie ein Mann, der erfolgreich so tut, als sei er eine Frau, dann auch wirklich eine Frau wird. Aber er traute der Maschine immerhin eine Art von Bewusstsein zu.

Das ist eine Ansicht, die man sicherlich immer noch verteidigen kann. Aber ein Schiedsrichter müsste schon sehr erfinderisch und raffiniert sein, um die oberflächliche Fassade einer selbstlernenden KI zu entlarven. Denn was Alan Turing nicht voraussah, war die unheimliche Fähigkeit superschneller Computer, stumpf riesige Datenmengen zu durchsuchen, die das Internet in schier unerschöpflichen Mengen bereitstellt, um wahrscheinlichkeitstheoretische Muster im menschlichen Handeln zu finden, die sie dafür verwenden können, authentisch wirkende Antworten in den Test einzuspeisen, die fast jeder Überprüfung des Schiedsrichters standhalten könnten.

Solche Wahrscheinlichkeitsrechnungen sind die Stärken neuer künstlicher Intelligenzen. Einziges Manko sind die enormen Möglichkeiten des Menschen infolge seiner Sprache und der Kultur, die sie erzeugt. Egal, wie viele Muster wir mit KI in den Datenfluten finden, die es bis heute ins Internet geschafft haben, es gibt immer noch unglaublich viele Möglichkeiten mehr, die dort nie aufgenommen wurden. Nur ein Bruchteil des Weltwissens, unserer Weisheit und Gestaltungsformen, unserer Schlagfertigkeit und Albernheiten hat es bisher ins Internet geschafft. Für einen Schiedsrichter, der einen Kandidaten im Turing-Test prüft, ob er Mensch oder Maschine ist, wäre es deswegen besser, wenn er nach solchen Dingen nicht sucht, sondern sie neu erstellt. Denn KI ist - bislang - ein Parasit der menschlichen Intelligenz. Sie verschlingt wahllos, was auch immer Menschen geschaffen haben und leitet daraus Muster ab. Diese Maschinen können (noch) keine Ziele, Strategien oder Kapazitäten für Selbstkritik oder Innovation entwickeln, mit denen sie über ihre Datensätze hinaus über ihr eigenes Denken oder ihre Ziele reflektieren könnten. Sie sind, wie Wiener sagt, hilflos, allerdings nicht in dem Sinne, dass sie angekettete oder verhinderte Handelnde sind, sondern weil sie gar keine Handelnden sind. Sie können nicht nach Vernunftgründen im Kant'schen Sinne handeln. Es ist wichtig, dass das so bleibt, auch wenn das einiges an Anstrengung erfordern wird.

Die Kluft zwischen heutigen KI-Systemen und solchen, wie man sie aus der Science-Fiction kennt, die nach wie vor die allgemeine Vorstellung von KI prägen, ist immer noch gewaltig, auch wenn sowohl Laien als auch Experten es schaffen, sie immer wieder zu unterschätzen. Nehmen wir IBMs Watson, eine KI, die ein ganz guter Maßstab für unsere gegenwärtigen Vorstellungen ist. Ihr Sieg in der Quizshow "Jeopardy!" war ein Triumph, der möglich war, weil die Spielregeln dieser Sendung sehr formalisiert sind (der Quizmaster liefert eine Antwort, die Teilnehmer müssen die dazugehörige Frage finden). Und selbst diese Spielregeln mussten angepasst werden (das ist einer dieser Kompromisse, man gibt ein wenig Flexibilität und Menschlichkeit für eine gute Show auf).

Es müsste Genehmigungen für KI-Entwickler geben, so wie für Apotheker oder Kranführer

Watson ist keine angenehme Gesellschaft. Trotz der irreführenden IBM-Werbung, die behauptet, Watson könne prinzipiell eine Unterhaltung führen, wäre so eine KI als Gesprächspartner ungefähr so geeignet, als würde man einen Taschenrechner in Watson verwandeln. Watson wäre ein ganz guter Grundbaustein, ähnlich wie ein Kleinhirn für den menschlichen Geist. So eine KI könnte aber nicht einmal annähernd Absichten oder Pläne formulieren oder einfühlsam auf ihren Erfahrungen aus Konversationen aufbauen.

Warum würden wir aus Watson etwas schaffen, das denken oder schöpferisch handeln kann? Vielleicht hat uns Turings brillante Idee eines Betriebstests in eine Falle gelockt: In die Hoffnung, mit der Illusion eines echten Menschen hinter dem Schirm etwas zu schaffen, das das "Uncanny Valley" überbrücken kann, also das Fremdeln mit der Maschine. Das Problem ist, dass, seit Turing seinen Test konzipierte, der ja darauf ausgerichtet war, einen Schiedsrichter zu täuschen, KI-Entwickler versuchen, diese Lücke mit menschenähnlichen Gesten zuzukleistern, die Uneingeweihte bezirzen und entwaffnen. Joseph Weizenbaums Sprachsimulator Eliza von 1966 war das beste Beispiel für solche oberflächlichen Illusionen. Er war ja selbst bestürzt, mit welcher Leichtigkeit ein so schlichtes Programm Menschen davon überzeugen konnte, dass sie gerade eine ernst- und herzhafte Konversation führen.

Er hatte allen Grund, beunruhigt zu sein. Wenn wir etwas aus den Turing-Tests des Loebner-Preises gelernt haben, dann, dass sogar sehr intelligente Menschen von einfachen Tricks hinters Licht geführt werden können. Und eine Erkenntnis, die wir daraus ziehen sollten ist, dass menschenähnliche Verzierungen eines Computerprogramms Mogelpackungen sind, die wir verdammen und nicht feiern sollten.

Spätestens wenn Menschen anfangen, aufgrund von KI-Empfehlungen Entscheidungen über Leben und Tod zu treffen, sollten wir Leute, die andere dazu bringen, solchen Systemen zu vertrauen, moralisch und rechtlich zur Verantwortung ziehen. Wir sollten sie mit Lizenzen und Genehmigungen in die Pflicht nehmen, genauso wie Apotheker, Kranführer oder andere Experten, deren Fehler und Fehleinschätzungen gravierende Folgen haben können. Mit dem Druck von Versicherungsgesellschaften sollten wir die Entwickler von KI-Systemen dazu zwingen, mit allergrößter Genauigkeit Schwächen und Fehler in ihren Produkten zu finden und offenzulegen, und alle, die sie bedienen, auszubilden.

Der Geist in der Maschine

Was bedeutet künstliche Intelligenz? Eine Serie von Essays sucht Antworten.

Teil 5

Man könnte sich eine Art umgekehrten Turing-Test vorstellen, mit dem der Schiedsrichter geprüft wird. Bevor er oder sie keine Schwächen, Fehler, Übergriffigkeiten und Lücken des Systems gefunden haben, gibt es auch keine Betriebserlaubnis. Doch egal, wie viele menschliche Züge KI-Entwickler aus ihren Produkten entfernen, müssen wir uns auf neue Formen des Denkens, der Konversation und des Bluffs in diesen neuartigen Handlungsformen einstellen. Die endlosen Listen der Nebenwirkungen von Medikamenten werden lächerlich kurz wirken, sobald es Vorschrift wird, dass man all die Fragen auflistet, die eine KI nicht beantworten darf. Mit schweren Strafen für all jene, die Fehler in ihren Systemen "übersehen". Weil wir uns nicht auf guten Willen allein verlassen sollten.

Wie könnte man einen Roboter bestrafen, der keine Wanderlust kennt und keinen Tod?

Wir brauchen keine künstlich bewusst Handelnden. Es gibt schon ein Übermaß an natürlich bewusst Handelnden, genug, um jede nur denkbare Aufgabe zu übernehmen. Wir brauchen intelligente Werkzeuge, die keine Rechte haben, keine Gefühle, die verletzt werden könnten, oder sich gegen vermeintlichen "Missbrauch" durch unfähige Nutzer wehren können. Einer der Gründe, warum wir keine Maschinen mit künstlichem Bewusstsein schaffen sollten, ist, dass, egal wie selbständig sie werden (und prinzipiell könnten sie so selbständig, selbstverbessernd und schöpferisch werden wie eine Person), sie könnten niemals unsere Verwundbarkeit und Sterblichkeit mit uns teilen.

In einem Experiment habe ich folgende Prämisse aufgestellt: Was für Eigenschaften müsste ein Roboter haben, der einen verbindlichen Vertrag abschließen könnte? Die Frage ist nicht, ob er einen Stift halten oder die Klauseln verstehen könnte, sondern, ob ein Roboter den rechtlichen Status eines moralisch verantwortlich Handelnden haben und verdienen würde. Kleine Kinder können solche Verträge genauso wenig abschließen wie alle anderen Menschen, deren rechtlicher Status verlangt, dass sie einen Vormund brauchen.

Das Problem für Roboter ist, dass sie ähnlich wie Superman zu unverwundbar sind, um ein glaubwürdiges Versprechen zu machen. Was würde denn passieren, wenn sie den Vertrag nachverhandeln? Was wäre denn die Strafe für Vertragsbruch? In eine Zelle gesperrt oder vielleicht demontiert zu werden? Haft wäre für eine KI höchstens eine Unannehmlichkeit, es sei denn, wir programmieren sie mit Wanderlust. Und eine KI zu demontieren (egal ob einen Roboter oder eine bettlägerige KI wie Watson), wäre keine Todesstrafe, wenn die Informationen in ihrem Design und in ihrer Software gespeichert würden. Die Leichtigkeit, mit der digitale Daten gespeichert und übertragen werden können, der technische Fortschritt, der Software und Daten effektiv unsterblich macht, entrückt Roboter aus der Welt der Verwundbaren.

Was wir also schaffen sollten, sind keine menschenähnlichen Wesen mit Bewusstsein, sondern vollkommen neue Gebilde, die ähnlich wie Orakel, ohne Gewissen, ohne Angst vor dem Sterben, ohne die Ablenkungen von Liebe und Hass, ohne Persönlichkeit und Charakter, Wahrheitssysteme sind (wenn wir Glück haben), auch wenn sie mit Unwahrheiten kontaminiert sind.

Es wird schwer genug sein, mit ihnen zurechtzukommen, ohne sich in Fantasien über die "Singularity" zu verlieren, jenen Moment, an dem KI die menschliche Intelligenz erreichen und übertreffen soll, um uns daraufhin buchstäblich zu versklaven. Die Kontrolle des Menschen über den Menschen wird sich bald schon und für alle Zeiten verändern. Aber wir können das Steuer übernehmen und einige der Gefahren umschiffen, wenn wir die Verantwortung für unseren Kurs übernehmen.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: