Debatte Ziemlich beste Freunde

Wer hat Angst vor Algorithmen? Ersetzt die künstliche Intelligenz den Menschen? Eine Diskussion an der Berliner Akademie der Wissenschaften plädiert für mehr Realismus und Gelassenheit im digitalen Zeitalter.

Von Franz Viohl

Im Jahr 2029, prophezeite einmal der amerikanische Transhumanist und Google-Ingenieur Ray Kurzweil, werde eine "maschinelle Intelligenz" erstmals den Turing-Test bestehen. Der Versuch markiert für Computerwissenschaftler seit fast 70 Jahren nichts weniger als den eigentlichen Eintritt ins Zeitalter künstlicher Intelligenz (KI). Danach chattet ein Mensch parallel mit einem Computer und einem Gegenüber aus Fleisch und Blut - ohne beide noch auseinanderhalten zu können.

Wer gelegentlich Übersetzungsdienste wie "Google Translate" nutzt, der ahnt, dass es bis dahin noch ein weiter Weg sein dürfte: Es ist nämlich gar nicht so leicht, einem Programm Sprache beizubringen. Dafür liefert "Translate" oft noch bizarre Ergebnisse, auch wenn sie immer besser werden. Der Grund, da ist sich die KI-Forschung einig, liegt in der Komplexität von sprachlichem Kontext. Darin steckt die gesamte Vielfalt menschlicher Welterfahrung. Das kriegen wir bald in den Griff, meinen ewige Optimisten wie Kurzweil und verweisen auf enorme Lernfortschritte der Maschinen. Die Frage ist nur: Was ist gewonnen, wenn wir mit Computern plaudern? Welche Aufgaben geben wir gern an sie ab? Und was wollen wir lieber selbst entscheiden? Das Reizwort der Stunde lautet "Algorithmus". Steigerungsform: "Die Macht der Algorithmen".

Genau die wollte nun auch eine Diskussion in der Berlin-Brandenburgischen Akademie der Wissenschaften beschwören. Doch so einfach war es nicht. Algorithmen seien nämlich gar nichts Neues, sagte erst einmal Akademie-Präsident Martin Grötschel. Als reine Verfahrensregeln fänden sie sich etwa in Kochrezepten wieder. In Gestalt von Warenlogistik oder Musik-Empfehlungen im Netz machten sie unseren Alltag vor allem angenehmer, sicherer und effektiver, befand auch Matthias Spielkamp von der Plattform "AlgorithmWatch". Kurzum: Algorithmen sind in den allermeisten Anwendungen ziemlich beste Freunde. Und doch ist die Angst vor dem unkontrollierten Einbruch der Software in unser Leben größer als je zuvor. Warum?

Die künstliche Intelligenz ersetzt nicht die Menschen - sie stellt sie vor politische Fragen

Hier kam der Berliner Philosoph Michael Pauen ins Spiel. "Wie jede neue Kulturtechnik erleben die Menschen die Digitalisierung als Bedrohung." So habe ja schon Platon in seinen Dialogen vor der Gefahr der Schrift für das Denken gewarnt, oder die bildenden Künste vor ihrem Untergang durch Kino und Fotografie. Es kam anders. "Statt eine Opferrolle gegenüber der Technologie einzunehmen, sollten wir nach den politischen und ökonomischen Interessen fragen, denen bestimmte Algorithmen dienen", meinte Pauen. Beispiel GesundheitsApps: Wenn Krankenkassen einem Versicherten, der nachweislich mehr als 10 000 Schritte am Tag zu Fuß geht, günstigere Beiträge verspricht, dann führt das natürlich zur Entsolidarisierung im Gesundheitssystem. Algorithmen stellen uns damit vor eine politische Frage, die die Gesellschaft zu beantworten hat.

Bei anderen Entscheidungen ist es aber klüger, wenn sie Algorithmen treffen, findet die Robotik-Wissenschaftlerin Verena Hafner. Etwa im Straßenverkehr: Bremsen oder beschleunigen, die Spur wechseln oder nicht - die meisten Situationen seien "wohldefiniert" und damit für Algorithmen viel besser zu bewältigen als für den gestressten oder risikofreudigen Fahrer. Die weltweite Aufregung um den tödlichen Unfall eines selbstfahrenden Tesla-Wagens sei deshalb "ziemlich unfair", sagte Hafner. Grundsätzlich mache autonomes Fahren den Verkehr sicherer.

Gibt es digitale Grundrechte? Nein - nur Grundrechte, die sich besser schützen lassen

Der Berliner Abend bemühte sich um eine gesunde Portion Realismus in einer "oft schief geführten Debatte" (Spielkamp). So brachte Verena Hafner die Crux der KI-Forschung auf die Formel: "Menschliche Intelligenz ist Intelligenz im Umgang mit der Umwelt". Es sei utopisch, das menschliche Gehirn auf einen Chip auslagern zu wollen, um es dort ein Eigenleben führen zu lassen (laut Kurzweil verbinden wir unseren Geist schon in ein paar Jahren mit der Cloud). Mensch versus Maschine, das heißt eben auch Kausalität versus Korrelation, Vorstellungskraft versus Datenmenge.

Umso überraschender dann die Meinung des Philosophen: Eine "prinzipielle Unmöglichkeit", das Gehirn mit den Mitteln der Naturwissenschaft voll zu erfassen - und ja, dann auch nachzubauen -, wollte Michael Pauen nicht erkennen. Womit er sich gegen Markus Gabriel stellte, also just den Fachkollegen, für den Pauen kurzfristig eingesprungen war und der unter dem Stichwort "phänomenales Bewusstsein" eine kategorische Grenze in Sachen KI einzieht (SZ vom 3. März 2016).

Natürlich birgt Big Data Gefahren, und Fake News verzerren die Wirklichkeit, da war man sich schon einig. Aber braucht es deshalb wirklich eine "Charta digitaler Grundrechte"? Nein, meinte Netz-Kritiker Matthias Spielkamp, denn diese gebe es gar nicht. "Es gibt nur Grundrechte, die sich besser schützen lassen." Dafür sorgen unter anderem Gerichte durch Urteile. Und dort entscheiden Richter, keine Maschinen. Noch.