Debatte um Künstliche Intelligenz:Freiheit für Sisyphos

Debatte um Künstliche Intelligenz: undefined

Es gibt viele Missverständnisse, was künstliche Intelligenz eigentlich ist. Die sollte man ausräumen. Denn einerseits werden uns kluge Maschinen auch im Alltag mühsame Arbeiten abnehmen. Andererseits gibt es durchaus Gefahren.

Von Constanze Kurz

Künstliche Intelligenz ist keine Zauberei, auch wenn sich zuweilen der Eindruck aufdrängt und gern ein paar Mythen gestreut werden. Die einfachen Ausprägungen von künstlicher Intelligenz (KI), mit denen wir heute in Kontakt kommen, sind erstaunlich, manchmal komisch, oft aber schlicht praktisch.

Im Grunde bringt man für das maschinelle Lernen, das die Grundlage künstlicher Intelligenz bildet, statistische Verfahren, Computerberechnungen und möglichst effiziente und kluge Programmierung zusammen, um eine Maschine gelehrig zu machen. Aus großen Datenmengen versucht man so, Gesetzmäßigkeiten und Regeln automatisch abzuleiten, die der Computer sich merken und damit lernen kann. Er muss sie nicht "verstehen" im menschlichen Sinne, aber er kann aus dem Gelernten Schlüsse ziehen und Entscheidungen fällen. Er unterscheidet sich darin nicht so fundamental von uns Menschen, denn wir verstehen mitnichten alles in der Welt um uns herum, können uns aber dennoch orientieren und sinnvolle Entscheidungen treffen.

Im Kern funktioniert dieses "Machine Learning", die derzeit populärste Sparte der künstlichen Intelligenz, wie menschliches Erfahrungslernen. Anhand von Beispiel-Datensätzen, etwa Rechtschreibfehler von Menschen, Verkehrsbewegungen von Autos oder Kommunikation von Mobiltelefonen, wird ein System darauf trainiert, Muster selbständig zu erkennen.

Ein Feld, auf dem seit vielen Jahren "Machine Learning" erfolgreich angewendet wird, ist die Bekämpfung von Spam, also von ungewollter Werbung oder anderer Belästigung per E-Mail. Wollte man halbwegs vollständige Regeln programmieren, um Spam abzuwehren, müsste man sich viele Gedanken machen zu all den Wegen, die Spammer erdenken können, um ihre Werbung möglichst nicht wie Werbung aussehen zu lassen.

Leider erfinden Spammer jeden Tag neue Möglichkeiten, ihre nervigen E-Mails zu tarnen, um uns auf eine Potenzmittelseite zu lotsen oder uns Schadsoftware unterzuschieben. Entsprechend müsste man sich fortwährend daran machen, das eigene Programm zur Spam-Abwehr zu verfeinern. Man käme schnell bei Hunderten oder Tausenden Varianten an, gegen die man sich jeweils zur Wehr setzen müsste. Es wäre eine Sisyphos-Arbeit.

"Das hier ist Spam."

Da liegt der Gedanke nahe, stattdessen ein Programm zu ersinnen, das die neuen Spammer-Ideen selbst findet.

Mit "Machine Learning" nimmt man ein paar Zehntausend Beispiele von Spam-Mails, die von Menschen als solche eingestuft wurden, gibt sie dem System zu lesen mit dem Hinweis: "Das hier ist Spam." Zum Vergleich übergibt man noch mal so viele normale Mails und sagt dem System nun: "Das hier ist kein Spam. Mails, die so aussehen, will ich lesen." Anhand der Beispiele lernt das System, gewünschte Mails treffsicher von Spam zu unterscheiden.

Das System wird trainiert, wie man ein Haustier erziehen würde: positives und negatives Feedback für Handlungen. Wenn eine Spam-Mail durchgerutscht ist, klickt man per Hand auf den "Das ist Spam!"-Button und erzeugt so einen neuen Lernimpuls. Machen das viele Menschen, kommen viele Lernimpulse zusammen, die Anpassungsgeschwindigkeit an neue Tricks der Spammer steigt.

Die Mathematik hinter diesen Systemen ist relativ komplex. Der Kern bleibt jedoch, dass der Mensch mit seinen Handlungen, seinen Datenspuren, seinen Verhaltensweisen die Systeme implizit oder explizit trainiert. Hier gilt wie für alle Algorithmen: Der nutzende oder sonst mitwirkende Mensch mag zwar nicht im Detail wissen, was genau die Software an Befehlen ausführt, aber er setzt sie zielgerichtet und für seine Zwecke ein. So wie ein Kutscher auch kein Veterinär sein muss, um sein Pferd zu verstehen. Er kann es trotzdem problemlos lenken und für seine Zwecke nutzbar machen.

Was heute "künstliche Intelligenz" genannt wird, ist also kein Hexenwerk, sondern funktioniert genau so - zumindest derzeit. Es macht keine Mühe, sich vorzustellen, dass ein Computer mit Leichtigkeit jeden Menschen darin schlägt, große Datenmengen durchzusehen. Wir wissen aus Erfahrung mittlerweile, dass die Schlüsse, die algorithmisch daraus gezogen werden, oftmals korrekt sind. Um beim Spam-Beispiel zu bleiben: Natürlich landet auch mal eine erwünschte E-Mail im Spam-Postfach, aber im Großen und Ganzen arbeiten die Systeme mit guter Genauigkeit und hoher Effizienz.

Eine gewisse Fehlertoleranz billigen wir ihnen zu, die jedoch nach der Art der Entscheidungen, die ein Computer für uns trifft, unterschiedlich ausfallen kann. Geht es statt um Spam etwa um die maschinelle Einschätzung der Kreditwürdigkeit eines Menschen, der gerade einen Vertrag abschließen will, kann ein Fehlschluss nicht nur ärgerlich sein, sondern viel Geld kosten oder gar Gerichte beschäftigen. Er kann den Menschen diskriminieren, auch hinter seinem Rücken.

Wenn von den Algorithmen direkt Leben abhängen

Kritischer wird es noch, wenn von den Ergebnissen der Algorithmen direkt Leben abhängen - etwa in autonomen Fahrzeugen oder bei medizinischen Expertensystemen. Die Systeme sind aufgrund ihrer Komplexität nicht mehr nach konventionellen Methoden der Informatik zu beurteilen, bei der man einen Programmfluss analysiert und dann weiß, was das erwartete Ergebnis ist.

Das Programmieren von Algorithmen zum maschinellen Lernen hat das gleiche Problem wie jedes andere Softwaresystem auch: Programmierer werden immer Fehler machen, und hinreichendes Testen von Software ist teuer und aufwendig. Darüber hinaus aber soll künstliche Intelligenz Probleme erkennen und lösen, die vorher gar nicht klar benannt werden können: Muster sollen ja gerade erst gefunden und Schlüsse daraus erlernt werden. Das Ergebnis kann also nicht mit Sicherheit vorausgesagt werden.

Daher wird bei solchen Systemen ähnlich über die Qualität geurteilt, wie über die Fähigkeiten eines Menschen. Ob jemand ein guter Autofahrer oder Arzt ist, lässt sich aufgrund seiner Leistungen in der Vergangenheit beurteilen. Wir tun uns aber noch schwer damit, ähnliche Kriterien bei Computer-Programmen anzuwenden, auch wenn wir das intuitiv manchmal berücksichtigen.

Simulierte Menschen-Gehirne

Die Konsequenzen der Entwicklung hängen auch davon ab, welche Arten von künstlicher Intelligenz am Markt nachgefragt werden. Für simulierte Menschen-Gehirne gibt es eigentlich keinen Bedarf. Wohl aber für Systeme, die Teilaspekte des menschlichen Denkens und Könnens deutlich effizienter und besser erledigen können - schlicht, weil sie mit der Geschwindigkeit moderner Computer weitaus mehr Daten einbeziehen, aus mehr Beispielen lernen können und keine Müdigkeit kennen.

Stephen Hawking hat vor einem Jahr die Befürchtung geäußert, der Mensch könnte "verdrängt werden" von dieser überlegenen maschinellen Intelligenz. In vielen Bereichen ist das heute schon so, wir stören uns daran nur selten. Wovor Hawking warnt, sind aber sogenannte generelle KI-Systeme. Es gibt sie noch nicht wirklich, sie sind aber seit Langem ein Forschungsfeld. Sie sollen nicht auf eine spezifische Fähigkeit hin trainiert, nicht für einen konkreten Anwendungszweck gebaut und eingesetzt werden, sondern möglichst generische Intelligenz ermöglichen, die ein semantisches Verstehen integriert.

Hier ist es angemessen, vorsichtig zu sein, und über die Frage gründlich nachzudenken, ob, wo und durch wen solche Systeme gebaut und eingesetzt werden sollten. Auch wenn es bis zur Realisierung eines dem Menschen ebenbürtigen oder gar überlegenen Systems wohl noch einige Dekaden hin ist: Der richtige Zeitpunkt für die Diskussion ist schon jetzt.

Die Autorin ist Sprecherin des Chaos Computer Clubs und Autorin. Zuletzt erschien von ihr und Frank Rieger "Arbeitsfrei: Eine Entdeckungsreise zu den Maschinen, die uns ersetzen".

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: