bedeckt München 16°

Kolumne: Silicon Future:Guck nicht so!

ma Silicon Future

An dieser Stelle schreiben jeden Mittwoch Marc Beise, Helmut Martin-Jung, Jürgen Schmieder und Kathrin Werner im Wechsel. Illustration: Bernd Schifferdecker

Nicht vor superintelligenten Zukunftswesen sollten wir uns fürchten, sondern uns um künstliche Intelligenz kümmern, wie sie heute schon zum Einsatz kommt - weil sie mehr und mehr zum Alltag gehört.

Von Helmut Martin-Jung, München

Keine Ahnung, wie sie das machen. Künstliche Wesen, die aussehen wie Menschen, die nahezu unzerstörbar sind und dabei noch superintelligent - woher kriegen die eigentlich ihre Energie? Essen hat man sie noch in keinem Hollywood-Film gesehen. Vielleicht ist es ja wirklich so, dass in der Zukunft wie in den Sci-Fi-Filmen ein faust- oder halt handballgroßes Teil zur Energieversorgung ausreicht, das man leicht im Bauch unterbringt - Organe sind da ja keine. Vielleicht ist es aber auch so, dass man sich darum gar keine großen Gedanken machen muss. Denn solche Wesen werden noch sehr lange eine Fantasie bleiben.

Worum man sich Gedanken machen sollte, und zwar jetzt, das ist das, was man den Terminatoren und ähnlichen Gestalten zuschreibt: künstliche Intelligenz (KI). Nein, nein: Es ist nicht die Rede davon, wie KI gerne in der Science-Fiction-Literatur und natürlich in den Filmen dargestellt wird. Es geht um das, was man heute als künstliche Intelligenz bezeichnet. Die ist ungefähr genauso weit weg von einer künstlich erschaffenen allgemeinen Intelligenz wie ein Elektroauto, das mit einer Ladung 100 000 Kilometer fahren kann. Aber sie kann trotzdem sehr gefährlich sein.

Die Betonung liegt zwar auf kann. KI ist eben ein Werkzeug, das sich zu guten wie zu verwerflichen Taten benutzen lässt. Angesichts der Möglichkeiten, die diese Technologie eröffnet, ist es aber keineswegs die übliche German Angst, das Gefahrenpotenzial vorab einzuschätzen, es ist dringend geboten.

Beispiel gefällig? Ein einschlägig bekannter Forscher der Stanford University, Michal Kosinski, behauptet, er könne mit einer Wahrscheinlichkeit von fast 70 Prozent auf die politische Orientierung von Menschen schließen - eher konservativ oder eher liberal - und das nur anhand eines Fotos. Er hat dazu mehr als eine Million Profilbilder von Dating-Webseiten und aus Facebook so bearbeitet, dass die Köpfe das Bild nahezu ausfüllten, und mit den so angeglichenen Bildern anschließend eine KI trainiert. Dazu musste er auch wissen, welchem der beiden politischen Lager die Menschen zuneigten.

Es ist derselbe Kosinski, der vor Jahren schon einmal Aufsehen erregt hatte mit einer ähnlichen Studie. Damals hatte er eine KI dafür eingesetzt, aus Bildern auf die sexuelle Orientierung von Menschen zu schließen. Das Spannende und zugleich Erschreckende an beiden Studien ist, dass es nicht um von Menschen wahrnehmbare Merkmale geht, sondern um Dinge, die nur ein Computer registrieren kann. Mithilfe statistischer Methoden lässt sich dann eine Wahrscheinlichkeit ermitteln.

Es handelt sich also nicht um eine Rückkehr zur Phrenologie. Ihre These: Aus der Kopfform lässt sich auf bestimmte Eigenschaften eines Menschen schließen, zum Beispiel ob jemand musikalisch ist oder gewinnsüchtig. Der Begründer der Theorie, der deutsche Arzt Franz Joseph Gall, und seine Jünger waren übrigens der Auffassung, die jeweils typische Schädelform entstehe dadurch, dass sich der besonders beanspruchte Teil des Gehirns ausdehne, vergleichbar einem trainierten Muskel - und so den Schädel verforme.

Das als Quatsch abzutun ist leicht, Forschungen wie die Kosinskis sind ein anderes Kaliber. Die Trefferquote der KI ist zwar ziemlich schlecht, aber besser als die von Menschen. Man muss nicht lange überlegen, bis einem Staaten einfallen, die dergleichen sicherlich gerne nutzen würden oder es schon tun. Da spielt es auch keine große Rolle, wenn einige false positives verdächtigt werden. Es gilt schließlich, ans Wohl des großen Ganzen zu denken. Gerade bei dem Trend zu autoritären Herrschaftsformen und antidemokratischen Strömungen, den man zurzeit weltweit beobachten kann, wird das zunehmend zum Problem.

Was also tun? Es gilt, was der Dramatiker Friedrich Dürrenmatt in einer der 21 Thesen zu seinem Theaterstück "Die Physiker" gesagt hat: "Der Inhalt der Physik geht die Physiker an, die Auswirkungen alle Menschen." Mag man KI auch als eine Sache von Experten sehen - mit ihren Auswirkungen werden alle früher oder später in Berührung kommen. Daher muss es auch eine öffentlich geführte Debatte darüber geben, wie damit umgegangen werden soll. Denn aus der Welt schaffen lässt sie sich nicht - was einmal gedacht wurde, kann wieder gedacht werden, so wie in "Die Physiker", die vor dem Hintergrund des Kalten Krieges und der Gefahr eines atomaren Krieges entstanden.

Was dabei nur schadet, sind emotionale Auseinandersetzungen auf der Basis von halbwahren oder missverstandenen Fakten. Es geht um ein Werkzeug und darum, wie man es anwendet. Es geht nicht um eine Technologie, die dazu angetreten ist, die Weltherrschaft zu übernehmen oder Menschen überflüssig zu machen. Dazu ist sie gar nicht in der Lage (manche sagen: noch nicht). Es geht darum, ihren Missbrauch zu verhindern, der von Menschen ausgeht, nicht von Maschinen, die plötzlich erwachen und sich gegen ihre Erschaffer richten. Es geht um Algorithmen, mit denen Kredite oder Jobs vergeben werden, mit denen Staaten womöglich feststellen wollen, wer subversive Absichten hegt. Wie viele Vorurteile stecken darin, wie viele falsche Ursprungsdaten?

Auch in der Wirtschaft, wo künstlicher Intelligenz beträchtliches Potenzial nachgesagt wird, muss diese im Dialog mit der Belegschaft und ihren Interessensvertretern eingeführt werden. Das nicht bloß, weil es moralisch geboten ist. Oft zeigt sich auch, dass die Systeme Menschen keineswegs ersetzen, sondern nur ergänzen. Der Umgang mit ihnen wird für viele Beschäftigte künftig zum Alltag gehören.

© SZ
Zur SZ-Startseite