Kommentar:Der falsche Feind

Lesezeit: 3 min

In der öffentlichen Diskussion haben Algorithmen in jüngerer Zeit einen schlechten Leumund. Der oberste Verbraucherschützer, Klaus Müller, fordert daher jetzt einen TÜV für die Programme - ein spannender Gedanke, der aber in der Praxis scheitert.

Von Helmut Martin-Jung

Stehe montags bis freitags um sechs Uhr auf, geh' duschen, mach' Kaffee, frühstücke, fahr' zur Arbeit. Und wenn's regnet, nimm den Schirm mit. Was das ist? Ein - zugegebenermaßen primitives - Beispiel für einen Algorithmus, eine Handlungsanweisung für sich wiederholende Tätigkeiten. Nichts Schlimmes eigentlich. Oder?

In der öffentlichen Diskussion haben Algorithmen in jüngerer Zeit einen schlechten Leumund. Verstecken sich darin womöglich Vorurteile? Wissen wir, was die Algorithmen in den vielen Rechenzentren wirklich mit unseren Daten anstellen? Wissen das die Unternehmen, die Googles, Amazons und Facebooks und wie sie alle heißen, eigentlich noch selbst? Und nun fordert sogar der Chef der Verbraucherzentrale Bundesverband, Klaus Müller, einen TÜV für Algorithmen. Das klingt ziemlich seltsam, klingt nach allzu deutschem Regelungswahn. Es lohnt sich aber, darüber nachzudenken, auch wenn die Idee selber sich so kaum wird verwirklichen lassen.

Wenn Chat-Roboter rassistische Sprüche klopfen, wird eine Grenze überschritten

Zunächst einmal: Wie ist der Stand der Dinge? Derzeit prägen vielerorts tatsächlich noch Algorithmen, die mehr oder weniger starr sind, die Auswertung von Daten. Wer eine Google-Suche startet, tritt einen recht komplexen los. Doch schon dieser Google-Algorithmus, ein wohlgehütetes Geheimnis des Unternehmens, ist keineswegs so unveränderlich, dass es viel Sinn ergeben würde, ihm eine TÜV-Plakette zu verpassen. Schon bei der nächsten kleineren Änderung wäre das Gütesiegel hinfällig.

Vollends ins Leere aber läuft Müllers Vorschlag bei einer Entwicklung, die drauf und dran ist, starre Algorithmen abzulösen. Die Rede ist von künstlicher Intelligenz (KI). KI schreibt sich ihre Algorithmen sozusagen selbst. Google etwa ließ ihr KI-System so viele Bilder ansehen, bis das System selber in der Lage war, Katzen zu identifizieren - ohne dass es darauf programmiert worden wäre. Oder Googles Alpha Go: Das System erlernte aus früheren Partien des asiatischen Brettspiels, das Spiel zu spielen wie ein Meister, ja es erfand sogar Züge, auf die ein Mensch bis dahin noch nicht gekommen war. Und auch die Wissenschaftler, die das System betreuen, können nicht nachvollziehen, wie es darauf kam.

Wer es nun mit der Angst zu tun bekommt, der sei beruhigt: Was man Kreativität nennen könnte, beschränkt sich auf sehr enge Felder und liegt eben doch mehr an den enormen Rechenfähigkeiten der Computer als an urmenschlichen schöpferischen Fähigkeiten. Bei vielen anderen Aufgaben wie etwa Übersetzungen sind die Computer noch immer das, was sie auch früher schon waren: armselige Blechtrottel.

Dennoch: Kann es sein, darf es sein, dass Maschinen die wachsenden Datenberge, die die Menschheit produziert, durchkämmen, auswerten und am Ende auf dieser Grundlage sogar Entscheidungen fällen, ohne dass genau bekannt wäre, wie diese Entscheidung nun zustande kam? Zumal man sich eben nicht damit trösten kann, dass die Computer fehlerfrei arbeiten würden. Googles mit Recht gerühmte Bilderkennung etwa identifizierte Schwarze als Gorillas, ein selbstlernender Chat-Roboter von Microsoft musste nach kurzer Zeit abgeschaltet werden, weil er rassistische Sprüche klopfte. Zwei sehr peinliche Beispiele, die aber kaum Auswirkungen in der Realwelt hatten.

Doch was wäre, wenn von einer KI gesteuerte automatische Eisenbahnen, Flugzeuge oder Autos Fehler machen? Auch das wird nämlich mit Algorithmen passieren. Nur ist es eben so, dass die Maschinen viel weniger Fehler machen als Menschen. Weshalb es eigentlich angezeigt wäre, nicht über moralische Probleme von Algorithmen und künstlicher Intelligenz zu diskutieren, sondern sie etwa im Verkehr so schnell wie sinnvoll und möglich einzusetzen.

Was in einem Bereich segensreich wirkt, kann in einem anderen aber verheerend sein. Die Verlockung für Staaten, ihre Bürger immer stärker zu überwachen, gerne mit Terrorgefahr als vorgeschobenem Argument, wächst mit den immer leistungsfähigeren Methoden, die es dafür gibt. Weil es aber nichts bringt, auf granularer Ebene herumzuregulieren, muss umso stärker darauf geachtet werden, dass die Grundrechte unberührt bleiben.

Die neue Technik ist wichtig und notwendig, damit sich die Wirtschaft im digitalen Zeitalter weiterentwickeln kann. Statt sich von anderen, weniger skrupulösen Nationen überrennen zu lassen, sollte Europa beherzt, aber bedacht das Potenzial nutzen, das die KI birgt. Als Faustregel könnte dabei ein Imperativ gelten, den sich Google - lang ist's her - als Firmenmotto gewählt hatte: "Tu nichts Böses."

© SZ vom 26.04.2017 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite
Jetzt entdecken

Gutscheine: