Neue Technologien kommen nicht mit einem Schlag in die Welt. Bis zum Durchbruch können Jahrzehnte vergehen. So ist es auch mit der künstlichen Intelligenz (KI). Die grundlegenden Konzepte dafür wurden im 20. Jahrhundert entwickelt, auch und besonders von deutschen Wissenschaftlern. In jüngster Zeit allerdings wird der Begriff inflationär gebraucht, und sogar die Bundesregierung hat erkannt, dass sie hier nicht länger zuschauen darf. Beim Digitalgipfel in dieser Woche in Nürnberg will sie ihr KI-Förderprogramm vorstellen.
Aber was ist das eigentlich, KI? Der Begriff ist leider ziemlich unscharf, und so kommt es zu einer kuriosen Situation: Viele ängstigen sich vor einer Superintelligenz der Maschinen, befördert durch Science-Fiction auf der einen und durch allzu euphorische Forscher auf der anderen Seite. Dabei wäre es viel wichtiger, die Energie auf das zu konzentrieren, was bereits bestehende KI-Systeme tun, und die Technologie sinnvoll und vor allem mit klaren ethischen Regeln zu nutzen.
Die Überintelligenz von Maschinen jedenfalls ist bestimmt nicht das Problem von heute und nach Ansicht vieler Experten auch überhaupt nicht das Problem - eine Intelligenz, die der des Menschen gleichkommt, sie sogar übertrifft, werde es so schnell nicht geben, wenn überhaupt. Was heute an sogenannter KI auf dem Markt und in näherer Zukunft zu erwarten ist, bedeutet oft nur: Ein System wird anhand von Daten trainiert, eine bestimmte Aufgabe zu erfüllen, zum Beispiel einfache Kundenmails zu beantworten.
Wo also liegt das Problem?
Das Problem ist, dass KI in dieser schwachen, also nur für bestimmte, eng umgrenzte Aufgaben geeigneten Form längst da und keineswegs so intelligent und unfehlbar ist, wie viele glauben. Da gibt es zwar die spektakulären Beispiele, mit denen Unternehmen wie Google oder IBM gerne werben - der Sieg im unendlich komplizierten asiatischen Brettspiel Go etwa über den besten menschlichen Spieler.
Aber meist ist die Sache viel banaler und zugleich erschreckender. KI steckt beispielsweise hinter den Algorithmen der sozialen Netzwerke. Sie sorgen dafür, dass ihre Nutzer möglichst lange dort verweilen, weil die Netzwerke dann mehr Geld mit Werbung verdienen. Als Köder für die Masse der Menschen aber funktionieren Kontroverse, Hass und Häme besonders gut. Zudem bekommen die Menschen dort fast nur noch Meinungen serviert, die ohnehin ihrem Weltbild entsprechen. Was das bereits an Schaden verursacht hat, lässt sich an vielen Beispielen ablesen - von der US-Wahl bis zum Brexit.
Manchmal ist die Grundlage der Algorithmen erstaunlich dünn
KI steckt auch in Programmen, die Personalverantwortlichen helfen sollen, geeignete Bewerber aus Massen an Bewerbungen herauszufiltern. Doch erfüllen sie wirklich das Versprechen, unvoreingenommen die besten Bewerber herauszufinden, egal ob jemand Yussuf heißt oder Julia, ob er oder sie schwarz ist oder weiß? Sieht man sich nämlich die Algorithmen genau an, entdeckt man oft, dass ihre Grundlagen erstaunlich dünn sind. Manchmal ist schon die schiere Zahl der Fälle, anhand derer die KI angelernt wurde - man spricht hier von Trainingsdaten - zu gering.
Aber auch Massen an Daten bringen nichts, wenn ihre Qualität nicht stimmt. Der Internetkonzern Amazon hatte ein KI-Programm zur Bewerberauswahl im Einsatz, richtig funktioniert hat es allerdings nie. Immerhin beteuert das Unternehmen, die KI habe nie das letzte Wort gehabt.
Dann nämlich kann es hochproblematisch werden. Ein besonders schockierendes Beispiel dafür ist das in den USA an Gerichten verwendete Correctional Offender Management Profiling for Alternative Sanctions, kurz: Compas. Mithilfe dieses Computerprogramms wurden seit dem Jahr 2000 für etwa eine Million Straftäter Prognosen darüber angefertigt, wie hoch das Risiko ist, dass sie rückfällig werden. Doch Forscher des Dartmouth College wiesen Anfang des Jahres nach, dass untrainierte Menschen mindestens dieselbe Trefferrate erreichten wie das System. Außerdem zeigten sie, dass die mehr als 100 Parameter, die das System angeblich berücksichtigte, irrelevant waren. Zog man nur Alter und Zahl der Vorstrafen heran, führte das zum selben Ergebnis. Dennoch hat das System über Schicksale von Menschen mitentschieden.
Fällt der ganze Hype in sich zusammen?
Die Polizei setzt lernende Systeme ebenfalls ein, zum Beispiel um Gegenden zu identifizieren, in denen häufiger eingebrochen wird. Das wäre super, würde es denn auch dazu führen, dass mehr Einbrecher geschnappt würden. Dafür fehlen aber bis dato die Beweise. Stichhaltige Beweise gibt es bis dato auch nicht für die Behauptungen von Herstellern, dass KI-Systeme in der Medizin bessere Diagnosen und Behandlungen leisten können.
Fällt also der ganze Hype in sich zusammen, soll die Regierung das Geld der Steuerzahler lieber für etwas anderes ausgeben? Nichts könnte falscher sein.
Dass heute so viel von künstlicher Intelligenz die Rede ist, liegt ja daran, dass es erst seit wenigen Jahren möglich ist, die aufwendigen Berechnungen, die dafür nötig sind, zu bezahlbaren Kosten und in vertretbarer Zeit vorzunehmen. Spezielle Grafikkarten mit Tausenden einzelnen Rechenkernen unterstützen die Hauptprozessoren der Computer, die über die Jahre ebenfalls unfassbar an Rechenleistung zugelegt haben. Erstmals können daher die theoretischen Konzepte neuronaler Netze, die es ja schon Jahrzehnte gibt, in der Praxis angewendet werden. Die Technologie, obwohl ihre Grundlagen schon jahrzehntealt sind, steckt also noch ziemlich am Anfang, leidet an Kinderkrankheiten.
Sie birgt aber auch ein großes Potenzial - viele messen ihr ebenso viel an Bedeutung zu wie dem Internet oder anderen großen Entwicklungen. Und darüber sollte man genauso reden wie über die Gefahren, die mit ihr einhergehen. KI ist eine Chance, die Produktivität zu steigern, langweilige Tätigkeiten loszuwerden, oder - um in der Diktion des Silicon Valley zu sprechen - das Leben der Menschen tatsächlich besser zu machen.
Dort, im Silicon Valley, hält man sich mit den Gefahren nicht lange auf. Die Unternehmen machen erst einmal und versuchen dann, eventuelle Mängel zu beseitigen. Die sozialen Netzwerke stecken gerade in dieser Phase. Kaum ein Tag vergeht, an dem etwa Facebook nicht vor irgendein Regierungsgremium geladen ist oder von wichtigen Menschen kritisiert wird. Und in China ist die Führung dabei, mithilfe von KI ein in diesem Ausmaß ungekanntes System der Überwachung einzuführen.
Der europäische Weg muss ein anderer sein. Er darf aber nicht dazu führen, dass Europa bei dieser Zukunftstechnologie wie schon bei der Internetsuche oder den sozialen Netzwerken den USA und Asien hinterherhinkt und von Konzernen aus diesen Ländern abhängig ist. Künstliche Intelligenz ist für Europa, besonders für Deutschland, von herausragender Bedeutung, weil sie in der Produktion eine herausragende Rolle spielen kann.
Die Debatte über den rechtlichen Rahmen hat erst begonnen
Europa, mit seinen 500 Millionen Bürgern, ist eine mächtige Wirtschaftsregion. Sie ist nur leider zersplittert, auseinanderdriftende Einzelinteressen verhindern, dass an einem Strang gezogen wird, so wie es wünschenswert und nötig wäre. Ein reiches Land wie Deutschland muss da vorangehen. Das Geld ist ja da. Die Forschung, durchaus auf einem guten Stand, muss weiter gestärkt werden. Vor allem aber muss mehr dafür getan werden, die Lücke zwischen Forschung und ihrer Anwendung in der Praxis zu schließen. Das ließe sich zum Beispiel durch noch intensivere und entbürokratisierte Starthilfen für Gründer erreichen.
Gefragt sind hier aber auch Großunternehmen, die sich ruhig mehr trauen sollten, KI-Start-ups zu fördern. Das Problem ist nämlich meist nicht die Erstförderung, sondern es fehlt das Geld dann, wenn der erste Prototyp läuft und nun investiert werden müsste. In den deutschen Unternehmen hat KI noch längst nicht den Stellenwert, der ihr gebührt. Im Valley dagegen sitzt das Geld viel lockerer, und: Man darf auch mal scheitern mit einem Projekt.
Im Vergleich zu den Summen, die in den USA oder in China in KI-Projekte investiert werden, wirkt das, was bisher über das Förderprogramm der Bundesregierung bekannt ist, nicht gerade wie der große Wurf. Besser wäre es ohnehin, Förderung nicht als eine Art Fünfjahresplan zu verstehen, der stur durchexerziert wird, sondern Methoden zu nutzen, wie sie in Start-ups längst Usus sind: nämlich agil zu handeln, Schritt für Schritt vorzugehen und die Pläne auf dem Weg anzupassen.
Das Recht hinkt der Technik hinterher
Auf diesem Weg sollte auch ein Regelwerk entwickelt werden, das die Gefahren der neuen Technologie eingrenzt. Immer da, wo KI Entscheidungen über Menschen trifft, muss transparent nachverfolgbar sein, auf welchen Grundlagen sie zu ihren Entscheidungen kommt. Bei reinen Sachentscheidungen werden die Menschen dagegen lernen müssen, damit zu leben, dass auch Technik nicht zu 100 Prozent perfekt sein kann. Eine ausgereifte Technik des autonomen Fahrens würde mit hoher Wahrscheinlichkeit dazu führen, dass es viel weniger Verkehrsunfälle gibt. Dennoch wird es für Menschen immer schwer bleiben zu akzeptieren, dass auch Technik nicht ohne Fehler ist.
KI macht aber andere Fehler als Menschen. Eine autonome U-Bahn wird nicht deshalb einen Unfall bauen, weil der Fahrer auf sein Handy geguckt hat anstatt aufs Signal. Eine Personalsoftware wird nicht Ausländer benachteiligen, weil sie xenophob ist. Sie wurde nur mit voreingenommenen Daten trainiert oder das Zugsystem hat ein Signal falsch interpretiert. Die Debatte darüber, wer dann haftet, hat gerade erst begonnen. Das ist nicht ungewöhnlich, das Recht hinkt der Technik oft hinterher. Auch hier wird man aber bald zu Regeln kommen müssen.
Jüngeren Umfragen zufolge beurteilen die Deutschen KI längst nicht mehr so kritisch wie noch vor ein, zwei Jahren. Je mehr sich die Technologie ausbreitet, desto mehr werden die Menschen entdecken, dass sie keineswegs so dämonisch ist, wie manche sie darstellen, und auch nicht so mächtig. Vor allem aber: Die Geschichte lehrt, dass es wenig bringt, sich gegen den Strom zu stellen, aber sehr viel, ihn in die richtige Richtung zu lenken.