KI-Serie:Der menschliche Faktor

Menschliche Gesellschaft und künstliche Intelligenzen werde in Zukunft immer mehr zusammenarbeiten. Damit das funktionieren kann, müssten aber die Grundlagen der Datenverarbeitung menschlicher werden.

Gastbeitrag von Alex "Sandy" Pentland

Künstliche Intelligenz (KI) ist ein epochaler Technologiesprung, der die Menschheit vor Fragen stellt, die keine Disziplin alleine beantworten kann. John Brockman, Agent für Wissenschaftsliteratur und Gründer des Debattenforums Edge.org, hat das "Possible Minds"-Projekt ins Leben gerufen, das Natur- und Geisteswissenschaften zusammenführt, um KI und deren wahrscheinliche Ausformungen und Folgen zu ergründen. Das Feuilleton der SZ druckt Texte aus dem Projekt sowie europäische Reaktionen als Serie.

Alex "Sandy" Pentland ist Professor für Medienkunst und -wissenschaften am MIT, Direktor der "Human Dynamics und Connection Science" sowie Mitglied der Abteilung für Sozialphysik.

Unser Denken wird seit einiger Zeit von der Frage umgetrieben, wie der Mensch wohl mit künstlichen Intelligenzen (KI) und denkenden Robotern auskommen wird. Das liegt auch daran, dass es große Erfolge und massive Förderung durch das Militär gab. KI wird hier als Mensch-Maschine-Berater-System vorgestellt, das Militär schießt viel Geld ein, etwas, das uns mehr beunruhigen müsste als Drohnen und humanoide Roboter.

Menschen beginnen, KI und maschinelles Lernen einzusetzen, um Ökosysteme, einschließlich ihrer humanen Lebenswelten, zu steuern und damit Mensch-KI-Ökologien zu schaffen. Da ja nun alles irgendwie "datenbezogen" ist, können wir viele Aspekte des menschlichen Lebens messen. Wir können Modelle von Ökologien erstellen wie nie zuvor: Wetter- und Verkehrsvorhersagemodelle werden erweitert auf Prognosen für das globale Klima, das Wachstum und die Umgestaltung der Städte. Das KI-gestütze Engineering unserer Ökologien ist in vollem Gange.

Auch unser menschliches Verhalten kann von maschinellem Lernen profitieren. Es ist möglich, komplexe soziale Probleme mithilfe algorithmischer Entscheidungsfindung anzugehen. Dass solche Human-KI-Ökologien gerechtere und transparentere Entscheidungsfindungen gewährleisten, liegt auf der Hand. Doch setzt man sich so auch der Gefahr einer "Tyrannei der Algorithmen" aus, in der Datenexperten die Welt regieren.

Wie können wir also ein gutes Mensch-KI-Ökosystem schaffen, das keine Maschinengesellschaft ist, sondern eine echte Cyberkultur, etwas mit menschlichem Antlitz? Es muss eine globale Ökologie sein.

Es gibt eine Vision davon, eine Vision mit zwei Strängen. Einer besteht aus Daten, die von einer breiten Community überprüft wurden, Daten, bei denen die Algorithmen bekannt sind und ständig überprüft werden, ähnlich wie bei den Volkszählungsdaten, von denen wir alle annehmen, dass sie korrekt sind. Der andere ist eine faire, datengesteuerte Bewertung öffentlicher Normen, der Politik und der Regierung auf der Grundlage dieser vertrauenswürdigen Daten.

Doch genau an dem Punkt, an dem diese gesellschaftliche Intelligenz tatsächlich geschaffen werden könnte, kommen einem nun Fake News, Propaganda und Werbung in die Quere. Dagegen helfen uns nur Vertrauensnetzwerke, die helfen, die sogenannten Echokammerprobleme zu vermeiden. Wir haben bereits begonnen, neue soziale Maßstäbe zu setzen, um uns von einigen der Krankheiten zu heilen, an denen Gesellschaften heute leiden. Wir nutzen dazu offene Daten aus allen zugänglichen Quellen, um Echos und Manipulationsversuche zu erkennen und in einem kuratierten mathematischen Rahmen eine faire Repräsentation der von Menschen getroffenen Entscheidungen zu gewährleisten.

Extreme Polarisierung und Einkommensunterschiede sind heute fast überall auf der Welt zu beobachten. Sie drohen, Regierungen wie Zivilgesellschaften zu zerreißen. Medien sorgen zudem für Adrenalinschübe, befeuert von der Sucht, werberelevante Klicks zu erzielen. Die Verschlechterung der Medien führt dazu, dass die Menschen ihre Orientierung verlieren. Beim Umbau zu einer digitalen Gesellschaft haben wir den Kontakt zu Werten wie Wahrheit und Gerechtigkeit verloren. Gerechtigkeit war einmal normativ. Wir haben sie formalisiert. Gleichzeitig haben wir sie jetzt für die meisten Menschen unerreichbar gemacht. Unsere Rechtssysteme enttäuschen uns in nie gekannter Weise, gerade weil sie so formal, digital und kaum noch in die Gesellschaft eingebettet sind.

Vorstellungen von Gerechtigkeit unterscheiden sich überall auf der Welt. Ein Kriterium aber bleibt: Erinnern Sie sich noch daran, wie die Bösen mit Waffen kamen und alles an sich rissen? Wenn Sie sich daran erinnern, dann unterscheidet sich Ihre Einstellung zur Gerechtigkeit von der des durchschnittlichen Lesers dieses Artikels. Kommen Sie aus der Oberschicht? Oder waren Sie eher bei denjenigen, die in den Untergrund mussten? Ihre Einschätzung von Gerechtigkeit hängt definitiv von Ihrer persönlichen Geschichte ab.

Ein kleiner Test für US-Bürger lautet: Kennen Sie jemanden, der einen Pick-up besitzt? Es ist der meistverkaufte Fahrzeugtyp in den USA. Wenn Sie solche Fahrzeugbesitzer nicht kennen, dann haben Sie keinen Kontakt zu mehr als der Hälfte der Amerikaner. Auch ein Ausdruck von getrennten Lebenskonzepten. Der größte Teil Amerikas denkt über Gerechtigkeit, Zugang und Fairness ganz anders als der, sagen wir, typische Bürger Manhattans.

KI ernährt sich von Daten. Wir sollten darauf achten, was sie frisst

Betrachtet man die Mobilitätsmuster - wohin die Menschen so gehen - in einer typischen Stadt, so stellt man fest, dass die Menschen im oberen Einkommensfünftel (Angestellte) und die im unteren Fünftel (Arbeitslose, Sozialhilfeempfänger) fast nie aufeinandertreffen. Sie gehen einfach nicht an dieselben Orte. Sie reden auch nicht über dieselben Dinge. Sie leben zwar nominell am selben Ort, aber es ist, als wären sie in völlig verschiedenen Städten. Dies ist vielleicht der wichtigste Grund für die heutige Polarisierungsplage.

Viele Menschen fürchten sich heute vor der KI. Vielleicht sollten sie es auch. Sie wissen, dass KI sich von Daten ernährt. Ohne Daten ist KI gar nichts. Darum muss man sich also nicht vor der KI fürchten. Stattdessen sollte man darauf achten, was eine KI frisst und was mit den Daten geschieht. Das Framework vertrauenswürdiger Netze, das wir mithilfe der EU und anderen Staaten aufgesetzt haben, ist eines, in dem wir alles haben können: KI, Algorithmen, was hereinkommt und was herausfließt. Hier können wir nun fragen: Wollen wir das alles wirklich so?

Eine der aufschlussreichsten Erkenntnisse bei der Betrachtung von KI ist, dass Bürokratien den künstlichen Intelligenzen ähneln: Sie operieren nach Vorschriften, die wir als Gesetze bezeichnen, fügen Regierungsdaten hinzu, und sie treffen Entscheidungen, die unser Leben beeinflussen. Schlecht daran ist, dass wir kaum Überblick über diese Bürokratien haben. Die einzige Kontrolle, die wir ausüben können, ist, sie abzuwählen. Wir müssen Bürokratien genauer überwachen. Wir müssen die Daten aufzeichnen, die in jede ihrer Entscheidungen eingeflossen sind, und wir müssen die Resultate analysieren lassen. Das ist übrigens so, wie es der Gesetzgeber auch vorgesehen hat.

Wenn wir die entscheidungsrelevanten Daten haben, dann können wir auch fragen: Ist der Algorithmus fair? Tut die KI Dinge, die Menschen ethisch vertreten können? Wenn Sie die Daten kontrollieren, dann kontrollieren Sie auch die KI. Ein Prozess, der "Mensch in der Auswertungsschleife" genannt wird.

KI ist in ihrem Kern schlichtweg dumm. Algorithmen arbeiten mit stupider, roher Gewalt

Die Sorgen um die KI sind dieselben wie die Sorgen um die jetzige Regierung. Auch für sie gilt, dass es keine verlässlichen Daten darüber gibt, was sie in welcher Entscheidungssituation tut. Woher kann man wissen, ob Gerichte fair urteilen, wenn man die Inputs und Outputs nicht kennt? Wir benötigen verlässliche Daten, um Regierungen zur Verantwortung ziehen zu können.

Das ist bei KI nicht anders. KI ist in ihrem Kern schlichtweg dumm. Ihre Algorithmen arbeiten mit stupider, roher Gewalt, sie benötigen Hunderte Millionen Beispiele, um zu lernen. Und das funktioniert, weil man sich allem mit vielen kleinen, einfachen Stücken nähern kann. Dies ist eine wesentliche Erkenntnis der aktuellen KI-Forschung: Wenn Sie KI zur Kreditvergabe einsetzen, dann können Sie mit kleinen Schritten jedes gewünschte Resultat erzielen. Falsche Funktionen bei der Entscheidungsfindung bedeuten dann aber auch, dass man der beurteilenden KI nicht automatisch gute Entscheidungen attestieren sollte. Denn wenn wir die KI mit anderen Daten füttern, kann sie unter Umständen völlig unsinnige Ergebnisse liefern. Es gibt ja diese amüsanten Beispiele für den sogenannten Nullpunkt von KI-Systemen. Dabei glaubt die KI, dass sie gültige Daten verarbeitet, Gesichter, Katzen und so weiter, für einen Menschen sind sie aber nur wirres Zeug.

Gegenwärtige KI betreibt also deskriptive Statistik auf eine Art und Weise, die keine Wissenschaft ist. Um aber verlässliche Systeme zu bauen, müssen wir die Wissenschaft hinter den Daten kennen. Die Systeme, die ich als KIs der nächsten Generation betrachte, basieren auf einem solch wissenschaftlich fundierten Ansatz: Wenn man eine KI erstellt, die etwas mit Physik zu tun haben soll, dann sollten ihr die Gesetze der Physik in ihren grundlegenden Funktionen hinterlegt sein, anstatt dieser dummen Neuronen-Nachbauten. Die Physik verwendet Funktionen wie Polynome, Sinuswellen und Exponentiale. Diese sollten also ihre Basisfunktionen ausmachen, nicht kleine lineare Neuronen. Wenn man besser geeignete Basisfunktionen verwendet, benötigt man auch viel weniger Daten, man kann mehr Rauschen verarbeiten und erzielt viel bessere Ergebnisse.

Wenn wir also eine KI erstellen möchten, die mit menschlichem Verhalten arbeitet, dann müssen wir die statistischen Eigenschaften menschlicher Netzwerke in die Algorithmen für maschinelles Lernen integrieren. Wenn Sie dumme Neuronen also durch solche ersetzen, die Grundlagen des menschlichen Verhaltens erfassen können, dann können Sie Trends mit wenigen Daten identifizieren und einen hohen Rauschpegel umgehen.

Dass Menschen über ihren "gesunden Menschenverstand" verfügen, den sie zur Lösung der meisten ihrer Probleme einsetzen, kommt dem ziemlich nahe, was ich die "menschliche Strategie" nenne: Man kann auch die menschlichen Gesellschaften mit neuronalen Netzen vergleichen, aber die "Neuronen" in diesen menschlichen Gesellschaften sind sehr, sehr viel schlauer. Sie und ich verfügen über Kräfte, mit denen wir viele unterschiedliche Situationen bewältigen, wir können sogar erkennen, wo wir uns verbessern müssen. Das heißt, wir können unsere eigenen Netzwerke immer wieder so gestalten, dass sie besser funktionieren, und wahrscheinlich werden wir die gesamte maschinenbasierte KI damit in ihrem ureigenen Spiel schlagen.

Aus dem Amerikanischen von Bernd Graff

Zur SZ-Startseite
Jetzt entdecken

Gutscheine: