Künstliche Intelligenz (KI) ist ein epochaler Technologiesprung, der die Menschheit vor Fragen stellt, die keine Disziplin alleine beantworten kann. John Brockman, Agent für Wissenschaftsliteratur und Gründer des Debattenforums Edge.org, hat das "Possible Minds"-Projekt ins Leben gerufen, das Natur- und Geisteswissenschaften zusammenführt, um KI und deren wahrscheinliche Ausformungen und Folgen zu ergründen. Das Feuilleton der SZ druckt Texte aus dem Projekt sowie europäische Reaktionen als Serie.
Neil Gershenfeld ist Physiker und Direktor des Center for Bits and Atoms am Massachusetts Institute of Technology.
Debatten über künstliche Intelligenz (KI) muten seltsam ahistorisch an oder sagen wir: manisch-depressiv. Denn je nachdem, wie man zählt, sind wir mittlerweile bereits im fünften "Boom-Bust"-Zyklus (in der Aufstiegs- und Niedergangsphase) dieser Technologie angekommen. Doch täuschen diese Schwankungen über die Kontinuität des tatsächlichen Fortschritts, der hier gemacht wurde, hinweg.
Die Zyklen haben je eine Dauer von ungefähr zehn Jahren. Zuerst gab es Großrechner, dann die Expertensysteme, die das Wissen von Experten ersetzen sollten. Das führte aber zu der Schwierigkeit, mit den Systemen an ein Wissen zu gelangen, das noch gar nicht vorhanden war. Inzwischen befinden wir uns im Zeitalter des Deep Learnings, in dem viele der früheren KI-Versprechen eingelöst werden, aber wir verstehen oft nicht, wie die Systeme zu ihren Ergebnissen kommen. Das wiederum hat Konsequenzen, die von intellektuellen bis zu existenziellen Bedrohungen reichen.
Alle Entwicklungsstufen der KI wurden als revolutionäre Fortschritte gefeiert, dabei machen sie alle effektiv dasselbe: Sie schließen aus Beobachtungen. Wie sehr die Ansätze einander ähneln, lässt sich daran erkennen, wie sehr ihre Leistung von dem Problem abhängt, mit dem sie sich befassen. Sowohl ein Lichtschalter als auch ein selbstfahrendes Auto spiegeln die Absichten ihrer Nutzer, wobei der Schalter nur zwei Optionen kennt, während das Auto viel mehr bietet. Die Phasen des KI-Booms starteten alle vielversprechend, enttäuschten dann aber, weil die Technologie stets dabei versagte, die Komplexität praktischer Probleme zu bewältigen.
Und doch gibt es Fortschritt. Er beruht auf der technologischen Unterscheidung zwischen linearen und exponentiellen Funktionen - eine Unterscheidung, die zu Beginn der KI-Entwicklung gemacht, aber erst viele Jahre später gewürdigt wurde.
Lange bestand die Möglichkeit, Berechnungen zu beschleunigen, darin, gar nichts zu tun, sondern darauf zu warten, dass die Computer schneller werden. Ebenso gab es KI-Projekte, die Wissen durch die mühsame Eingabe von Informationen sammelten. Das konnte natürlich nur so schnell voranschreiten, wie es Leute gab, die diese Eingaben machten. Als jedoch Telefonanrufe, Zeitungsartikel und E-Mail-Nachrichten über das Internet übertragen wurden, wurde jeder, der so etwas produzierte, zum Datengenerator. Das Ergebnis war eine exponentielle Wissensakkumulation.
Ein Problem, das durch Skalierung für die KI gelöst wurde, bestand darin, die Regeln für Prüfung und Bewertung von Berechnungen festzulegen, ohne für jedes Problem jeweils einen Programmierer einstellen zu müssen. Inzwischen haben es Skalierungsgesetze Maschinen ermöglicht, effektiv so leistungsfähig zu werden wie ihre Entsprechungen in der Biologie. Neuronale Netze schuf man mit dem Ziel, die Funktionsweise des Gehirns zu modellieren. Davon hat man sich verabschiedet, als mathematische Abstraktionen entwickelt wurden, die nichts mit der Funktionsweise von Neuronen zu tun hatten.
Doch jetzt gibt es eine Art Konvergenz, die man sich eher als eine vorwärts- als eine rückwärtsentwickelte Biologie vorstellen muss, als das Ergebnis von Deep Learning, das Hirnschichten und -regionen wiedergibt.
Eines der schwierigsten Forschungsprojekte, die ich bisher durchgeführt habe, hat Datenwissenschaftler mit KI-Pionieren zusammengebracht. Leider sind damit keine Meilensteine erreicht worden. Denn obwohl die Ersteren zwar bei der Lösung der seit Langem bestehenden Probleme, die Letztere formuliert hatten, Fortschritte machten, wurde dies als wenig relevant angesehen, da man wenig Fortschritte beim Verständnis der Lösungen machte. Denn was ist ein Schachcomputer wert, wenn man nicht erklären kann, wie er Schach spielt?
Die Antwortet darauf lautet natürlich, dass er es kann. Es gibt neue Forschungen, in denen KI auf KI angewendet wird, in denen also Netzwerke darin geschult werden zu erklären, wie sie eigentlich funktionieren. Aber wie das Gehirn kann man Computerchips nur verstehen, wenn man ihr Inneres betrachtet. Man tut sich leichter, wenn man ihre externen Schnittstellen betrachtet. Wir trauen (oder nicht) Gehirnen und Computerchips auf der Grundlage von Erfahrungen, nachdem man sie getestet hat, weniger auf Grundlage von Erklärungen zu ihrer Funktionsweise.
Viele Bereiche des Ingenieurwesens befinden sich gerade in einem Übergang. Sie entwerfen nicht explizit ein System, sondern beschreiben, was ein System tun soll, und dann sucht man nach passenden Werkzeugen. Dieser Ansatz wird darum notwendig, weil die Komplexität der (computerbasierten) Mittel weit über das hinausgeht, was ein menschlicher Designer verstehen kann. Klingt nach einem Risiko, doch hat das menschliche Verständnis nun mal leider Grenzen.
Die Mutter aller Designprobleme sind wir selber. Denn unser Design steckt in dem am besten erhaltenen Teil unseres Genoms, den Hox-Genen. Es sind Gene, die andere Gene regulieren, sogenannte Entwicklungsprogramme. Nichts darin speichert das Design von Körpern, gespeichert ist die Reihe von Schritten, die zum menschlichen Körper führen. Dies ist die exakte Parallele zur Suche in der KI. Denn es gibt nahezu unendlich viele Möglichkeiten, den Körper zu entwerfen, die meisten von ihnen sind entweder inkonsequent oder tödlich. Die Hox-Gene repräsentieren daher eine Art natürliche Intelligenz auf molekularer Ebene.
Die KI hat insofern ein Geist-Körper-Problem, als sie über keinen Körper verfügt. Unsere eigene Intelligenz ist das Ergebnis eines Suchalgorithmus der Evolution, der sowohl unsere physische Form als auch unsere Programmierung betrifft und ändern konnte - sie sind untrennbar miteinander verbunden. Die Geschichte der KI entpuppt sich eher als ein Wirken von Skalierungsgesetzen als eine Folge von konkreten Anwendungen. Ihre Zukunft wird ähnlich verlaufen. Was gerade unternommen wird, ist der Versuch, Programmierbarkeit in die Welt der Atome zu bringen. Indem wir nicht nur die Designs digitalisieren, werden die Lehren von Neumann und Shannon auf die Komplexität von Materialien übertragen.
Aminosäuren, die die Grundlage des Lebens bilden, und Legosteine, die die Grundlage eines Spiels bilden, teilen hier dieselben Eigenschaften.
Das Interessante an Aminosäuren ist ja, dass sie gar nicht interessant sind. Aber nur zwanzig verschiedene Arten reichen, um einen Menschen auszumachen. Genauso reichen etwa zwanzig Arten von digitalem Material - leitend, isolierend, starr, flexibel, magnetisch usw. - aus, um den Funktionsumfang von modernen Technologien wie Roboter und Computer zu erzielen.
Die Verbindung zwischen Berechnung und Herstellung wurde schon von den Pionieren vorhergesagt. Der Mathematiker Norbert Wiener deutete es an, als er den Materialtransport mit dem Nachrichtentransport verband. Das Letzte, worüber John von Neumann ausführlich arbeitete, waren sich selbst reproduzierende Systeme. Als Abstraktion auf das Leben hat er eine Maschine entworfen, die berechnet, wie sie sich selbst konstruiert. Und das Letzte, was Alan Turing studierte, war, wie die Anweisungen in Genen zu physischen Formen führen. All diese Fragen behandeln etwas, das der typischen Informatikausbildung fehlt: die physikalische Bedingtheit einer Berechnung.
Die Geschichte lehrt: Die Realität liegt meist irgendwo zwischen Dystopie und Utopie
Die Informatikpioniere Alan Turing und John von Neumann stellten ihre Fragen theoretisch, weil es zu ihrer Zeit nicht möglich war, sie praktisch umzusetzen. Doch über die Konvergenz von Kommunikation und Berechnung mit der Fabrikation werden solche Studien nun experimentell umsetzbar. Die Herstellung einer Maschine, die sich selber aus den von ihr hergestellten Teilen zusammensetzen kann, ist ein Schwerpunkt meines Labors, ebenso wie die Entwicklung synthetischer Zellen.
Natürlich ist die Vorstellung einer Selbstreproduktion von Automaten noch viel gruseliger als die Befürchtung einer außer Kontrolle geratenen KI, da sie die Intelligenz genau dorthin verschiebt, wo wir leben. Doch steckt in der Möglichkeit, sowohl Atome wie auch Bits zu programmieren, die Chance, Entwürfe global zu teilen, während Energie, Nahrung und Schutz vor Ort erzeugt werden. Wiener sorgte sich um die Zukunft der Arbeit, stellte aber die Grundfrage der Arbeit nicht infrage. Sie ist dann infrage gestellt, wenn Konsum durch Schöpfung ersetzt werden kann.
Die Geschichte legt nahe, dass weder utopische noch dystopische Szenarien sich durchsetzen. Wir landen meist irgendwo dazwischen. Doch die Geschichte lehrt auch, dass wir nicht auf die Geschichte warten müssen.
Wenn die Maker-Bewegung der Vorbote einer dritten digitalen Revolution ist, kann der Erfolg der KI auch als die Krönung der ersten beiden digitalen Revolutionen gesehen werden. Obwohl Maschinenbau und Maschinendenken als voneinander unabhängig erscheinen mögen, liegen sie doch jeweils in der Zukunft des anderen. Dieselben Trends, die KI möglich gemacht haben, deuten auch darauf hin, dass die aktuelle KI-Manie nur eine Phase ist, der die Verschmelzung von künstlicher und natürlicher Intelligenz folgen wird.
Es war ein Fortschritt für Atome, Moleküle zu bilden, für Moleküle, Organellen zu bilden, für Organellen, zu Zellen zu werden. Daraus wurden Organe und Organismen, die Familien und dann Gesellschaften formen, aus denen Zivilisationen wurden. Diese große Evolutionsschleife kann nun geschlossen werden, indem Atome Bits - und diese wieder Atome anordnen.