Süddeutsche Zeitung

Künstliche Intelligenz:Die große Show

Lesezeit: 5 Min.

Wo künstliche Intelligenz draufsteht, steckt oft nur simple Software drin. Und hinter vermeintlich klugen Chatbots verbergen sich bisweilen echte Menschen.

Von Boris Hänßler

In der Geschichte "Der Zauberer von Oz" reist das Mädchen Dorothy in ein Zauberland und begegnet dort einem Magier, der über eine Smaragdstadt herrscht. Später findet Dorothy heraus, dass alles nur Schau ist. Der Magier ist ein normaler Mensch, der seine magischen Fähigkeiten mit einer Apparatur vortäuscht. Er kreiert eine optische Illusion, auf die alle, die nicht genau hinschauen, hereinfallen, vielleicht weil sie an Magie glauben möchten. Mit künstlicher Intelligenz (KI) verhält es sich ähnlich. Auch ihr sagt man nahezu magische Fähigkeiten nach - und auch bei ihr handelt es sich oft um eine Täuschung.

Inzwischen ist künstliche Intelligenz in fast jedem Produkt, das die IT-Branche auf den Markt wirft - jedenfalls entsteht dieser Eindruck. Doch er ist falsch: Einige Firmen verkaufen lediglich herkömmliche Software als KI, andere versprechen mit KI, ein Problem gelöst zu haben, das die Technik noch nicht lösen kann. Ein Grund ist die immense Nachfrage - sie ist inzwischen so hoch, dass Start-ups einfach nur KI rufen und die Hände aufhalten müssen und das Geld prasselt hinein. Ein zweiter Grund ist die schwammige Definition von künstlicher Intelligenz, sodass diesen Begriff jeder nutzen kann.

"In 80 Prozent der Fälle, in denen ich etwas über KI lese, sind das einfach nur falsche Informationen", sagt Stewart Russell, Professor an der Universität von Kalifornien in Berkeley. Es gebe ein Missverständnis darüber, was KI wirklich ist, und das habe die Entstehung von gefälschter KI weitgehend ermöglicht. "Unter KI fällt heute ein breites Spektrum an Problemlösungsverhalten, das von naiv und kurzsichtig bis hin zu gut informierten und strategischen Lösungen reicht", sagt Klaus-Robert Müller von der Gruppe Maschinelles Lernen der Technischen Universität Berlin.

Die Firma Coca-Cola wertete zum Beispiel die Daten ihrer Schankautomaten aus, mit denen sich Kunden selbst Getränke mischen können. Offenbar ist dabei Cola Cherry und Sprite eine beliebte Kombination, weshalb der Konzern dies als eigenständige neue Geschmacksrichtung herausgab - ein Erfolg für die Anwendung künstlicher Intelligenz, so hieß es, doch es handelte sich lediglich um eine simple Datenanalyse.

Onlineshops, die Kunden einen Blumentopf empfehlen, weil sie zuvor Samen gekauft haben, brauchen dafür keine KI

Ein Teil des sogenannten Roboterjournalismus ist ein weiteres Beispiel. Die Software erstellt aus Statistiken - zum Beispiel aus Sport- oder Finanzmarktdaten - fertige Artikel. Aber meist stecken keine komplexen Algorithmen dahinter. Standardanweisungen wie "Falls x, dann y" reichen für solche Anwendungen aus: "Falls Bayern München = 1 und Borussia Dortmund = 0, dann schreibe: Bayern ging in Führung". Auch Onlineshops, die Kunden einen Blumentopf empfehlen, weil sie sich zuvor Samen und Gießkannen angesehen haben, benötigen dafür keine KI.

In der Wissenschaft würde man solche banalen Systeme nicht als künstliche Intelligenz bezeichnen. Dieser Begriff ist im Forschungsalltag längst nicht mehr gebräuchlich, weil er zu verwässert, im Grunde genommen altmodisch ist. 1954 wurde er auf einer wissenschaftlichen Konferenz in der US-Stadt Dartmouth erstmals erwähnt. Der Mathematiker und KI-Forscher Marvin Minsky schrieb knapp zehn Jahre später, künstliche Intelligenz sei gegeben, wenn Maschinen Dinge täten, für deren Ausführung man beim Menschen Intelligenz voraussetzt. Seitdem durchlief die wissenschaftliche KI verschiedene Phasen, zunächst sogenannte wissensbasierte Systeme. Forscher versuchten, Expertenwissen in der Technik abzubilden. Dieser Ansatz scheiterte, weil er schwer skalierbar war - schließlich setzte jede Änderung die Mitarbeit der Experten voraus.

Die Phase wurde abgelöst vom maschinellen Lernen - dem Lernen aus großen Datenmengen. In den vergangenen Jahren haben sich dabei vor allem sogenannte künstliche neuronale Netze durchgesetzt. Ihre Struktur ähnelt der von neuronalen Verknüpfungen im menschlichen Gehirn. Ein solches Netzwerk lernt, in dem es immer wieder Trainingsdatensätze durchgeht, die Ergebnisse mit dem Zielvorhaben vergleicht, und dann die "Neuronen" - mathematische Funktionen - und ihre Variablen neu gewichtet. So ein Netzwerk versucht zum Beispiel zu lernen, wie sich Tumorzellen von gesunden Zellen unterscheiden. Zunächst vergleicht es Tausende Bilder von beiden und versucht dann, das Gelernte auf unbekannte Fotos zu übertragen. Dabei macht es Fehler, korrigiert einige Parameter, und prüft erneut. Ist die Fehlerrate geringer, weiß das System, dass es auf dem richtigen Weg ist.

Solche Systeme bestehen oft aus Hunderten von Neuronen-Schichten und Millionen von Parametern. Das Training eines KI-Modells kann daher Hunderttausende Euro an Rechenressourcen kosten, sagt der Software-Ingenieur Martin Casado von der Risikokapitalgesellschaft Andreessen Horowitz. Und dies seien nicht zwangsläufig einmalige Kosten, denn die Daten, welche die KI-Modelle speisen, würden sich oft im Laufe der Zeit verändern. Deshalb müssten die Modelle mitunter regelmäßig neu trainiert werden. Unternehmen, die auf eine "echte" KI setzen, hätten deshalb durchaus hohen Investitionsbedarf.

Firmen, die mit einfachen Algorithmen rechnen, entstehen diese Kosten nicht. Doch sie hüten sich davor, das richtigzustellen. Von 2830 Neugründungen in Europa, die als KI-Unternehmen eingestuft wurden, entsprachen nur 1580 genau dieser Beschreibung, wie aus einer Untersuchung von MMC, einer in London ansässigen Risikokapitalgesellschaft, hervorgeht. "Wir haben uns jede Firma, ihr Material, ihr Produkt, die Website und die Produktdokumente angeschaut", sagt David Kelnar, Forschungsleiter von MMC. "In 40 Prozent der Fälle konnten wir keinen Hinweis auf den tatsächlichen Einsatz von KI finden." Kelnar sagt, dass diese Start-ups sich zwar nicht unbedingt selbst als KI-Firmen bewerben. Vielmehr würden sie von Dritten auf diese Weise klassifiziert. Aber sie korrigieren das nicht. Warum auch? Start-ups, die im Bereich der künstlichen Intelligenz angesiedelt sind, ziehen in ihren Finanzierungsrunden 15 bis 50 Prozent mehr an als andere.

Menschen vertrauen Maschinen oft mehr an als realen Personen

Das verleitet einige Unternehmen zu besonders dreister Selbstdarstellung. Die in London und Los Angeles ansässige Engineer.ai beispielsweise hat 29,5 Millionen Dollar eingeworben. Die Firma sagte, dass sie derzeit eine künstliche Intelligenz entwickelt, die automatisch Apps programmieren soll. Menschen ohne Programmierkenntnisse können sich auf der Webseite der Firma per Mausklick eine App zusammenstellen. Der Gründer von Engineer.ai, Sachin Dev Duggal, sagte in einem Interview, dass bereits 82 Prozent einer App, die das Unternehmen entwickelt hat, automatisch mit der firmeneigenen Technologie erstellt worden seien. Doch Reporter des Wall Street Journals berichteten, dass das Unternehmen bei der Erledigung des größten Teils dieser Arbeit auf menschliche Ingenieure in Indien setzte.

Laut Eric Siegel liegt es jedoch nicht nur an Unternehmen, dass KI Zauberei zugetraut wird. Der ehemalige KI-Forscher der Columbia-Universität und heutiger Buchautor schreibt, Medien und Wissenschaft seien an der Misere nicht ganz unschuldig. Schlagzeilen wie "KI kann sagen, ob Sie schwul sind" oder "KI-gepowerte Scans können Menschen mit dem Risiko eines tödlichen Herzinfarkts fast ein Jahrzehnt im Voraus identifizieren" würden Erwartungen schüren, dass maschinelles Lernen dies alles zuverlässig vorhersagen könne. Dies sei eine Lüge, denn in den meisten Fällen ist das einfach zu schwierig. Wissenschaftler und Journalisten gingen ein Bündnis ein, um Forschung attraktiv zu verkaufen, verzerren aber den Blick auf die tatsächliche Leistung von KI.

Besonders problematisch ist es, wenn KI bei sogenannten Chatbots vorgetäuscht wird. Studien haben gezeigt, dass Menschen mitunter Maschinen mehr anvertrauen als menschlichen Chatpartnern, weil sie davon ausgehen, dass niemand davon erfährt. Es gibt Start-ups, die auch in diesem Bereich Leute dafür bezahlen, sich wie Maschinen zu verhalten, um dann ihr System als maschinelles Lernen zu verkaufen. 2016 enthüllte die Nachrichten-Agentur Bloomberg, dass einige Menschen zwölf Stunden am Tag damit verbrachten, sich als Chatbots für Kalenderdienste wie X.ai und Clara auszugeben.

Laut mehrerer Umfragen vertrauen Menschen weltweit KI nicht sonderlich. In einer Befragung in Großbritannien im Januar 2020 gaben 58 Prozent an, dass sie bei der Krebserkennung einer künstlichen Intelligenz nicht den Vorzug geben würden. Doch gerade in diesen Bereichen werden KI-Systeme immer öfter eingesetzt - mit teils guten Ergebnissen. Umso wichtiger ist es, dass die Technik verfeinert wird. Die falschen Versprechungen schaden somit nicht nur denjenigen, die blauäugig investieren, sondern auch der Wissenschaft, die viel Geld braucht, um die echte KI voranzutreiben - dieses Geld könnte ausbleiben, wenn der Zauber auffliegt und man auch in Unternehmen zurecht misstrauischer wird.

Bestens informiert mit SZ Plus – 4 Wochen für 0,99 € zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.5036926
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ/
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.