Debatte um Künstliche Intelligenz Freiheit für Sisyphos

Es gibt viele Missverständnisse, was künstliche Intelligenz eigentlich ist. Die sollte man ausräumen. Denn einerseits werden uns kluge Maschinen auch im Alltag mühsame Arbeiten abnehmen. Andererseits gibt es durchaus Gefahren.

Von Constanze Kurz

Künstliche Intelligenz ist keine Zauberei, auch wenn sich zuweilen der Eindruck aufdrängt und gern ein paar Mythen gestreut werden. Die einfachen Ausprägungen von künstlicher Intelligenz (KI), mit denen wir heute in Kontakt kommen, sind erstaunlich, manchmal komisch, oft aber schlicht praktisch.

Im Grunde bringt man für das maschinelle Lernen, das die Grundlage künstlicher Intelligenz bildet, statistische Verfahren, Computerberechnungen und möglichst effiziente und kluge Programmierung zusammen, um eine Maschine gelehrig zu machen. Aus großen Datenmengen versucht man so, Gesetzmäßigkeiten und Regeln automatisch abzuleiten, die der Computer sich merken und damit lernen kann. Er muss sie nicht "verstehen" im menschlichen Sinne, aber er kann aus dem Gelernten Schlüsse ziehen und Entscheidungen fällen. Er unterscheidet sich darin nicht so fundamental von uns Menschen, denn wir verstehen mitnichten alles in der Welt um uns herum, können uns aber dennoch orientieren und sinnvolle Entscheidungen treffen.

Im Kern funktioniert dieses "Machine Learning", die derzeit populärste Sparte der künstlichen Intelligenz, wie menschliches Erfahrungslernen. Anhand von Beispiel-Datensätzen, etwa Rechtschreibfehler von Menschen, Verkehrsbewegungen von Autos oder Kommunikation von Mobiltelefonen, wird ein System darauf trainiert, Muster selbständig zu erkennen.

Ein Feld, auf dem seit vielen Jahren "Machine Learning" erfolgreich angewendet wird, ist die Bekämpfung von Spam, also von ungewollter Werbung oder anderer Belästigung per E-Mail. Wollte man halbwegs vollständige Regeln programmieren, um Spam abzuwehren, müsste man sich viele Gedanken machen zu all den Wegen, die Spammer erdenken können, um ihre Werbung möglichst nicht wie Werbung aussehen zu lassen.

Leider erfinden Spammer jeden Tag neue Möglichkeiten, ihre nervigen E-Mails zu tarnen, um uns auf eine Potenzmittelseite zu lotsen oder uns Schadsoftware unterzuschieben. Entsprechend müsste man sich fortwährend daran machen, das eigene Programm zur Spam-Abwehr zu verfeinern. Man käme schnell bei Hunderten oder Tausenden Varianten an, gegen die man sich jeweils zur Wehr setzen müsste. Es wäre eine Sisyphos-Arbeit.

"Das hier ist Spam."

Da liegt der Gedanke nahe, stattdessen ein Programm zu ersinnen, das die neuen Spammer-Ideen selbst findet.

Mit "Machine Learning" nimmt man ein paar Zehntausend Beispiele von Spam-Mails, die von Menschen als solche eingestuft wurden, gibt sie dem System zu lesen mit dem Hinweis: "Das hier ist Spam." Zum Vergleich übergibt man noch mal so viele normale Mails und sagt dem System nun: "Das hier ist kein Spam. Mails, die so aussehen, will ich lesen." Anhand der Beispiele lernt das System, gewünschte Mails treffsicher von Spam zu unterscheiden.

Das System wird trainiert, wie man ein Haustier erziehen würde: positives und negatives Feedback für Handlungen. Wenn eine Spam-Mail durchgerutscht ist, klickt man per Hand auf den "Das ist Spam!"-Button und erzeugt so einen neuen Lernimpuls. Machen das viele Menschen, kommen viele Lernimpulse zusammen, die Anpassungsgeschwindigkeit an neue Tricks der Spammer steigt.

Die Mathematik hinter diesen Systemen ist relativ komplex. Der Kern bleibt jedoch, dass der Mensch mit seinen Handlungen, seinen Datenspuren, seinen Verhaltensweisen die Systeme implizit oder explizit trainiert. Hier gilt wie für alle Algorithmen: Der nutzende oder sonst mitwirkende Mensch mag zwar nicht im Detail wissen, was genau die Software an Befehlen ausführt, aber er setzt sie zielgerichtet und für seine Zwecke ein. So wie ein Kutscher auch kein Veterinär sein muss, um sein Pferd zu verstehen. Er kann es trotzdem problemlos lenken und für seine Zwecke nutzbar machen.

Was heute "künstliche Intelligenz" genannt wird, ist also kein Hexenwerk, sondern funktioniert genau so - zumindest derzeit. Es macht keine Mühe, sich vorzustellen, dass ein Computer mit Leichtigkeit jeden Menschen darin schlägt, große Datenmengen durchzusehen. Wir wissen aus Erfahrung mittlerweile, dass die Schlüsse, die algorithmisch daraus gezogen werden, oftmals korrekt sind. Um beim Spam-Beispiel zu bleiben: Natürlich landet auch mal eine erwünschte E-Mail im Spam-Postfach, aber im Großen und Ganzen arbeiten die Systeme mit guter Genauigkeit und hoher Effizienz.

Eine gewisse Fehlertoleranz billigen wir ihnen zu, die jedoch nach der Art der Entscheidungen, die ein Computer für uns trifft, unterschiedlich ausfallen kann. Geht es statt um Spam etwa um die maschinelle Einschätzung der Kreditwürdigkeit eines Menschen, der gerade einen Vertrag abschließen will, kann ein Fehlschluss nicht nur ärgerlich sein, sondern viel Geld kosten oder gar Gerichte beschäftigen. Er kann den Menschen diskriminieren, auch hinter seinem Rücken.