KI-Debatte:Keine Panik, es ist nur künstliche Intelligenz

KI-Debatte: Bedrohlich: das Kameraauge des Supercomputers HAL 9000 aus dem Film 2001: Odyssee im Weltraum von Stanley Kubrick

Bedrohlich: das Kameraauge des Supercomputers HAL 9000 aus dem Film 2001: Odyssee im Weltraum von Stanley Kubrick

  • Die Entwicklung künstlicher Intelligenz (KI) macht große Fortschritte, doch Erwartungen wie Ängste sind überzogen, sagen Fachleute.
  • Der Vergleich mit menschlicher Intelligenz hinkt oft.
  • Manche Fachleute fürchten, auf den Hype könnte ein erneuter "KI-Winter" folgen, in dem öffentliches Interesse und finanzielle Förderung dramatisch zurückgehen.

Von Christian Simon

Wer die Intelligenz eines Kleinkinds mit der einer künstlichen Intelligenz (KI) vergleicht, tut dem Kleinkind unrecht. Denn um ihm beizubringen, was eine Katze ist, muss man ihm zwei oder drei Katzen zeigen und "Katze" sagen. Für denselben Lerneffekt braucht selbst die klügste aktuelle KI tausende oder sogar zehntausende Katzenbilder. Ob mit den derzeit existierenden Methoden eine deutliche Verbesserung dieser Leistung möglich ist, ist fraglich.

Die US-Armee will zwei Milliarden Dollar in neue künstliche Intelligenzen investieren. Auch dass die Bundesregierung Deutschland zum "führenden KI-Standort" machen will, hat wohl mit den Erwartungen zu tun, die der Begriff weckt.

KI, das klingt nach Hal9000, Wall-E oder C3PO, nicht nach einem Computerprogramm, das eine Million Datenpunkte vergleicht und mit bloßer Stochastik zu einem Ergebnis kommt. Trotzdem verunsichert die Technologie viele Bürger, als wäre sie ein Monster. Eine Umfrage des Instituts YouGov zeigte gerade, dass nur etwa 15 Prozent der Deutschen glauben, dass der Nutzen der KI die Risiken überwiegt. 26 Prozent sehen mehr Risiken als Nutzen, und 45 Prozent glauben, dass sich Risiken und Chancen die Waage halten.

"Im Moment wissen alle, dass jeder 'KI' braucht, und zwar am besten sofort"

Während sich die einen die Lösung aller Probleme erhoffen, fürchten andere die Macht "intelligenter" Computer. Der umtriebige Tesla-Chef Elon Musk warnt immer wieder vor einer überlegenen KI. Sie könne ein "unsterblicher Diktator" werden. Auch von der Angst vor einem realen Skynet ist immer wieder zu lesen: In der Terminator-Filmreihe ist Skynet das Computernetzwerk, das die Rebellion gegen die Menschheit startet.

Vermutlich sind allerdings sowohl die Hoffnungen, als auch die Ängste übertrieben. "Überflüssig und irreführend" nennt Florian Gallwitz, Informatikprofessor an der Technischen Hochschule Nürnberg, den Begriff KI. "Niemand kann überzeugend definieren, was 'KI' überhaupt sein soll, aber im Moment wissen alle, dass jeder 'KI' braucht, und zwar am besten sofort." Die Werbetexte unterschiedlichster Tech-Start-ups geben ihm recht.

Tatsächlich habe es in den vergangenen Jahren große Fortschritte besonders im Bereich maschinellen Lernens gegeben, die faszinierende Anwendungen möglich machten, sagt Gallwitz. Mit "Denken", "Schlussfolgern", "eigenem Willen" oder gar einem "Bewusstsein" habe das jedoch nichts zu tun.

Die Schwammigkeit des Begriffs stört auch den Informatiker Filip Piękniewski, der über KI bloggt. Er hat in Warschau promoviert und arbeitet für das Start-up Accel Robotics, das an KI-gestützter Bilderkennung arbeitet. "Wenn wir über Triebwerke reden würden wie über KI, würde jeder Raketenstart dazu führen, dass eine weitreichende Debatte über intergalaktisches Reisen mit Warpantrieb geführt wird. Das gehört ins Reich der Fantasie", sagt Piękniewski.

Wie soll eine KI mit medizinischem Forschungsstand mithalten?

Einig sind sich Gallwitz und Piękniewski in einem Punkt: Von selbstfahrenden Autos bis zu neuen diagnostischen Methoden in der Medizin könnten auch vergleichsweise "dumme" KIs revolutionäre Anwendungen möglich machen. Optimisten erhoffen sich zum Beispiel schnelle und sichere Methoden, Krebs im Frühstadium zu erkennen und neue Medikamente zu entwickeln. Kritiker weisen darauf hin, dass erste Versuche mit dem Watson-Programm von IBM wenig vielversprechend waren. Eine KI, die Vorschläge zur Krebstherapie machen sollte, musste von echten Ärzten unterstützt werden und hielte mit dem Forschungsstand der Krebsforschung nicht Schritt.

Außerdem hat medizinische KI dieselben Probleme wie KI in anderen Bereichen. Vor allem data bias - also Vorurteile in den Daten - könnte über Leben und Tod entscheiden. Wenn der Robo-Arzt nur mit Bildern von weißen Menschen trainiert worden ist, erkennt er Hautkrebs bei dunkelhäutigen Menschen schlechter. Ähnlich verhält es sich mit Algorithmen, die mit Bildern oder Daten von Männern trainiert worden sind und dann auf Frauen angewendet werden. Ärzte, die sich auf die Technik verlassen, könnten falsche Diagnosen stellen.

Die Professorin, Futuristin und Bestsellerautorin Amy Webb sieht dennoch großes Potenzial in KI. Erfolge hingen aber davon ab, ob das Problem des data bias gelöst werde. "KI ist nicht nur ein Trend oder ein Buzzword - es ist eine neue Ära der Informatik", sagt sie. "Wir befinden uns mitten in einer gewaltigen Transformation, vergleichbar mit der Industriellen Revolution."

Weil der Hype alles dominiere, würden aber zu wenige die eigentlich einfachen Fragen stellen: Was passiert, wenn wir Macht und Einfluss an eine Maschine abgeben, die nur von wenigen programmiert und verstanden wird? Und was, wenn die Entscheidungen der künstlichen Intelligenz die Vorurteile noch verstärken, die menschliche Intelligenzen haben? Die Frage der Verantwortlichkeit müsse geklärt werden.

Das Problem: Die Datengläubigkeit der Menschen

Diese Probleme existieren auch ohne KI. Besonders in den USA nutzen Banken und Versicherungen alle verfügbaren Informationen, um Kreditwürdigkeit und Lebenswandel möglicher Kunden zu überprüfen. Selbst wenn die Informationen solche Schlüsse gar nicht erlauben. Wer in einer Nachbarschaft mit vielen säumigen Schuldnern wohnt, bekommt deshalb unter Umständen keinen Kredit. Auch, wenn er oder sie selbst bislang alle Schulden pünktlich zurückgezahlt hat. Dieses Verfahren ist auch in Deutschland bekannt, auch wenn zumindest die Schufa angibt, es nur in Ausnahmefällen anzuwenden.

Die Datengläubigkeit hinter dem AI-Trend ärgert Florian Gallwitz. "Tatsächlich ist es leider meist unmöglich, aus Daten sinnvolles Wissen wie etwa Ursache-Wirkungs-Beziehungen abzuleiten, so groß die Datenmenge auch sein mag", sagt er. Maschinen seien zwar gut darin, Korrelationen zu finden. Um Kausalitäten zu erkennen, müsse der Mensch aber weiterhin aktiv eingreifen, etwa indem er die Ergebnisse der KI mit einer Kontrollgruppe oder einem anderen Forschungsdesign ergänzt.

Das größte Missverständnis beim Thema KI sei deshalb, die Forschung daran mit der Entwicklung einer Superintelligenz zu verwechseln, sagt auch Informatikprofessor Barry O'Sullivan, Präsident der Interessensgemeinschaft European Association for Artificial Intelligence (EurAI). Es gehe darum, dass Computer bestimmte Aufgaben besser als Menschen bewältigen sollen. Diese Aufgaben seien aber sehr spezifisch.

Für das Beispiel der KI zur Bilderkennung heißt das: Ist es mit genügend Abbildungen von Katzen trainiert worden, kann das Programm irgendwann eine Katze mit großer Sicherheit erkennen. Ob das Tier glücklich oder traurig aussieht oder welches Verhalten von einer Katze vernünftigerweise zu erwarten ist, weiß das Programm nicht.

Heutige KIs sind auf ein "enges" Anwendungsgebiet beschränkt

Die Alpha-Go-KI des Google-Projektes Deepmind kann das Brettspiel Go besser als jeder Mensch spielen, dafür kann sie aber ein belegtes Brot nicht von einem Vulkanausbruch unterscheiden. Beide Programme sind "schwache" oder "enge" künstliche Intelligenzen, weil sie zwar über beeindruckende Fähigkeiten verfügen (für eine Maschine), diese sich jedoch auf ein sehr spezifisches, "enges" Anwendungsgebiet beschränken. Eben: Ein einziges, ganz bestimmtes Brettspiel spielen. Oder Katzen erkennen (Hunde aber dann wieder nicht).

Eine künstliche Intelligenz, die zahlreiche "intelligente" Funktionen vereint und sich sogar neue Informationen selbstständig erschließen kann, wäre dagegen eine starke KI. Auch wenn es Fortschritte gegeben hat, Computer selbstständig lernen zu lassen - von einer starken KI sind wir noch weit entfernt. "Die Furcht vor einer künstlichen Superintelligenz hat als Gedankenexperiment oder philosophische Diskussion durchaus ihren Reiz", sagt O'Sullivan. Aber KI könne Intelligenz nur simulieren. Deshalb seien die Ängste unbegründet.

Langsam setzt sich auch in der Fachwelt die Erkenntnis durch, dass die Entwicklungen wohl nicht so bahnbrechend werden wie erhofft. Experten wie Filip Piękniewski sehen bereits einen neuen "KI-Winter" auf uns zukommen. Der Begriff bezeichnet eine Phase, in der die Erwartungen an die KI, die Investitionen und das öffentliche Interesse zurückgehen. Das ist vergleichbar mit einer wirtschaftlichen Depression innerhalb der Forschungsdisziplin. Wenn es um KI ging, wechselten sich Phasen des Hypes und der Ernüchterung ab - die theoretischen Grundlagen der heutigen Technologien gibt es seit den 1960er Jahren. Dank gesteigerter Rechenleistung können sie heute umgesetzt werden, doch die Methoden stoßen an neue Grenzen, weit entfernt davon, Superintelligenzen zu werden. Die unklare Definition des Begriffs "KI" könne dazu führen, dass das Feld für einen Hype-Kreislauf besonders anfällig ist, sagt Piękniewski.

Der amerikanische Futurist Roy Amara hat eine Faustregel formuliert, die helfen soll, neue Technologien einzuschätzen. Sie wurde als "Amaras Gesetz" bekannt und besagt, dass Menschen dazu neigen, die kurzfristigen Auswirkungen von Technologie zu überschätzen, die langfristigen Auswirkungen aber zu unterschätzen. Gut möglich, dass das auch auf KI zutrifft. Ihre Methoden werden vielleicht irgendwann zu bahnbrechenden neuen Möglichkeiten für die Menschheit führen. Und in Gebieten zum Einsatz kommen, an die heute noch niemand denkt. Bis auf Weiteres bleiben Hal und C3PO aber, was sie auch bisher schon waren: Science-Fiction.

Zur SZ-Startseite
Worker gathers items for delivery at Amazon's distribution center in Phoenix

Künstliche Intelligenz
:Diese Technologien können Angst machen

Unternehmen überwachen Mitarbeiter und Maschinen entscheiden über Meinungsfreiheit. Vier Beispiele zeigen, dass technischer Fortschritt auch nach hinten losgehen kann.

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: