Algorithmen, Recht und Ethik Wer haftet für künstliche Intelligenz, wenn sie Mist baut?

Wir müssen klären, wer dann schuld ist. Und ob sich Menschen um Algorithmen kümmern müssen wie um Hunde.

Gastbeitrag von Andrej Zwitter

Roboter, die mit Menschen arbeiten oder sie ersetzen. Software, die so intelligent ist, dass sie besser Schach, Jeopardy und Go spielt als die größten Champions. Computer, die Bilder erkennen und Krankheiten diagnostizieren können. Helfer im Handy, die Flüge buchen. Und Maschinen, die selbständig Entscheidungen treffen und umsetzen - künstliche Intelligenz verändert bereits heute unser Leben. Und doch steht die Technik erst am Anfang. Den Fragen, die mit dem Siegeszug der künstlichen Intelligenz (KI) entstehen, widmet das Feuilleton eine Serie: Wie wird eine Zukunft mit Maschinen aussehen, die vieles besser können als der Mensch? Wer trägt die Verantwortung für ihre Handlungen? Was mag passieren und was bleibt, aller Utopie zum Trotz, doch nur eine Science-Fiction-Fantasie? In dieser Folge beschäftigt sich der Jurist Andrej Zwitter mit Fragen von Ethik und Recht in einer Welt voll künstlicher Intelligenz.

Glaubt man den Warnungen von Technologiepionieren wie Bill Gates und Elon Musk vor den Gefahren einer Künstlichen Superintelligenz, dann ist fast befürchten, dass uns das Ende durch Skynet (Terminator) oder durch die Matrix kurz bevorsteht. Wissenschaftler wie Stephen Hawking und Nick Bostrom etwa beschreiben das Prinzip der Singularität: Es geht um den Punkt, an dem künstliche Intelligenz die Intelligenz der Menschen übersteigt und so zur Bedrohung der Menschheit werden kann. Bislang haben wir diesen Punkt noch nicht erreicht, Befürchtungen wie diese gehören ins Reich der Science-Fiction. Und doch werden bereits ethische und rechtliche Konsequenzen sichtbar.

Künstliche Intelligenz beginnt bereits dann, wenn Algorithmen auf Umgebungseinflüsse reagieren, das ist relativ simple Automatisierung. Je weiter sich diese Automatisierung - manchmal auch selbständig - fortentwickelt, etwa durch maschinelles Lernen, desto dringlicher stellt sich die Frage, ob Programmierer noch für Entscheidungen der KI zur Rechenschaft gezogen werden können. Tatsächlich beruhen viele unserer täglichen Abläufe auf künstlicher Intelligenz, zum Beispiel Suchalgorithmen von Google oder Muster- und Gesichtserkennung auf Facebook.

Big Data und Big Nudging

Dabei sind zwei Schlagworte wichtig: Big Data und Big Nudging. Big Data, also jene riesigen Datenmengen, die sich durch das Internet ansammeln, können heutzutage mit bestimmten Analyse-Methoden verwendet werden, um unsere Werte und Wünsche zu analysieren, manchmal sogar, ohne dass wir uns ihrer bewusst sind. Für Marketing-Strategen hat sich damit ein Traum erfüllt, man denke nur an Amazons Kaufvorschläge ("Kunden, die diesen Artikel angesehen haben . . ."). Mit diesem Wissen lässt sich der Kundenservice verbessern, aber auch die Willensfreiheit einschränken, etwa wenn man auf Suchmaschinen nur noch benutzerspezifische Ergebnisse erhält oder bestimmte politische Themen ganz ausgeblendet werden. Letzteres praktizieren Suchmaschinen in nicht-demokratischen Ländern seit langen.

Illustration: SZ-Grafik

Big Nudging beschreibt genau das: die Beeinflussung der Meinung und des Verhaltens einer Gesellschaft ohne ihr Wissen. Das ist ethisch problematisch, und doch gibt es kaum Gesetze, die es regulieren.

Viele Eingriffe in die Freiheit, Sicherheit und Privatsphäre der Nutzer sind durch Menschenrechte, Strafrecht und Zivilrecht gedeckt. Schwierig wird es jedoch in zwei Fällen: einmal bei grenzüberschreitenden Sachverhalten und zweitens dann, wenn Algorithmen eigenständig Entscheidungen fällen, die man dann demjenigen, der die Algorithmen programmiert hat, nicht mehr zuschreiben kann.

Im Oktober 2015 hat der Europäische Gerichtshof das Datenabkommen mit den USA aufgehoben, das so genannte Safe Harbor Abkommen. Damit bleibt eine rechtliche Lücke, was Datenmissbrauch betrifft. Was die grenzüberschreitende Manipulation von Internetsuchergebnissen angeht, so betrachtet sich die Europäische Kommission als zuständig. Zumindest auf dem Europäischen Markt will sie solche Praktiken, zumindest im Fall von Google, unterbinden.