Süddeutsche Zeitung

Künstliche Intelligenz:Neues Recht für neue Technik

Wer zahlt, wenn etwa eine autonom fliegende Drohne einen Unfall verursacht? EU-Parlamentarier haben Vorschläge - aber sehr unterschiedliche.

Von Karoline Meta Beisel

Künstliche Intelligenz bietet Pessimisten Anlass für düstere Fantasien: Was, wenn Maschinen die Welt übernehmen? Dabei sind die praktischen Fragen, die sich Verbraucher stellen, viel profaner: Was, wenn die Paketdrohne mein Auto zerkratzt?

Der Einsatz von künstlicher Intelligenz (KI) soll vieles leichter machen, aber die Haftungsfragen werden in jedem Fall komplizierter. Bei einem ferngesteuerten Flugzeug zum Beispiel ist die Lage klar: Wer seine Mini-Cessna in die Fensterscheibe des Nachbarn steuert, muss für dessen Schaden aufkommen. Wer aber haftet, wenn eine automatisch fliegende Drohne einen Schaden verursacht: Der Betreiber des Geräts - oder der, der dessen Flugsystem programmiert hat? Und woher weiß der Besitzer des zerkratzten Autos, an wen er sich wenden soll?

Die Eigenarten künstlicher Intelligenz "erschweren es, potenziell problematische Entscheidungen beim Einsatz von KI nachzuvollziehen. Das kann es für Geschädigte schwer machen, unter geltendem EU- und nationalem Recht Schadenersatz zu verlangen", heißt es in dem Weißbuch, das die EU-Kommission Anfang des Jahres vorstellte. Wenn die Behörde in einigen Monaten neue Gesetze für den Umgang mit KI vorschlägt, werden darin deswegen aller Voraussicht nach auch Ideen enthalten sein, wie Haftungsfragen geklärt werden sollen, die mit dem Einsatz solcher Anwendungen einhergehen.

Der Europaabgeordnete Axel Voss will dem Rechtsausschuss des EU-Parlaments in der kommenden Woche einen eigenen Vorschlag unterbreiten, wie das Recht auf die neue Technik reagieren soll. Nämlich im Grundsatz: nicht so sehr anders als auf die Haftungsfragen aus der analogen Welt. "Wir wollen nicht alles verkomplizieren", sagt der CDU-Abgeordnete. "Überregulierung würde europäische Innovationen bremsen, vor allem wenn eine Anwendung von Start-ups oder kleinen und mittelgroßen Unternehmen entwickelt wird", heißt es in den Vorbemerkungen zum Gesetzentwurf, der sich als "zweite Säule" neben den Regeln der Produkthaftung versteht.

Geht es nach Voss, soll im Mittelpunkt eine Unterscheidung stehen: Denn nur für besonders risikoträchtige Anwendungsfälle der künstlichen Intelligenz sollen auch besonders strenge Regeln gelten. Der Nutzer von solchen "Hochrisikosystemen" soll demnach für "jeden Schaden" verantwortlich sein, den die KI verursacht - praktisch entspricht das einem System der Gefährdungshaftung, wie es das deutsche Zivilrecht etwa auch für Tier- oder Fahrzeughalter kennt.

Was als Hoch-Risiko-Anwendung gilt, soll die EU-Kommission per Liste festlegen, die mithilfe von Experten regelmäßig aktualisiert werden soll. Voss zufolge sei das ein praktikabler Weg, um schnell auf neue Entwicklungen reagieren zu können. In seinem ersten Entwurf für diese Liste stehen bereits ein paar Beispiele: etwa jene Sorte selbstfahrende Autos, bei denen die Passagiere kaum noch Einfluss nehmen können; oder "Geräte, die öffentliche Orte autonom reinigen". Aber auch für KI-Anwendungen, die nicht auf dieser Liste stehen, kommt Schadenersatz infrage - es sei denn, der Betreiber kann nachweisen, dass ihn kein Verschulden trifft: Nicht "Eltern haften für ihre Kinder", sondern "Anwender haften für ihre KI".

Im zuständigen Rechtsausschuss dürften Voss' Vorschläge für einigen Streit sorgen - vor allem wegen der Punkte, die darin nicht genannt werden. So fordern Sozialdemokraten und Grüne, dass die Haftung auch für solche Schäden geklärt werden muss, die durch diskriminierendes Verhalten entstehen; etwa, wenn eine KI auf der Basis von Daten entscheidet, die ihrerseits nicht frei von Vorurteilen sind. Der grüne Abgeordnete Sergey Lagodinsky sagt: "Wo Diskriminierung durch Gesetze verboten ist, muss es auch eine entsprechende Haftung geben." Voss findet dagegen, solche Fragen müsse nicht das Zivilrecht beantworten, sondern das Verbraucher- oder das Antidiskriminierungsrecht. Außerdem sieht sein Entwurf Schadenersatz nur für das Leben, die Gesundheit oder das Eigentum vor - wohingegen die Grünen darauf drängen, dass auch bei Umweltschäden oder der Verletzung von Gemeingütern die Haftung klar sein müsse.

Ein anderer Streitpunkt dürfte die Frage sein, was eigentlich als Hoch-Risiko-KI eingestuft wird. Der Sozialdemokrat Tiemo Wölken sagt: "Eine Liste, die das abschließend aufzählt, würde ich für zu starr halten." An anderer Stelle aber warnt er vor einer zu breiten Haftung, nämlich bei der Definition des "Betreibers" einer KI. Übertragen auf das Paketdrohnen-Beispiel: Wenn die Post eine Software einkauft, und ein anderer deswegen einen Schaden erleidet - muss den dann die Post ersetzen, oder nicht doch nur der Hersteller der Software? Und was passiert, wenn ein Verbraucher mit einer KI einen Schaden verursacht? "Wenn am Ende ein ganz normaler Nutzer haften müsste, nur weil in seinem Gerät eine KI steckt, dann ginge das auf jeden Fall zu weit", sagt Wölken.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.4896395
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 05.05.2020
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.