Außenansicht:Wenn Roboter töten

Außenansicht: Horst Eidenmüller, 54, lehrt Handelsrecht an der Universität Oxford und ist Professorial Fellow des St. Hugh's College, Oxford.

Horst Eidenmüller, 54, lehrt Handelsrecht an der Universität Oxford und ist Professorial Fellow des St. Hugh's College, Oxford.

(Foto: oh)

Wir sollten uns davor hüten, Maschinen wie Menschen zu behandeln, auch wenn diese Maschinen intelligent sind.

Von Horst Eidenmüller

Es war ein mit Sprengstoff bestückter Roboter, der den Polizistenmörder von Dallas tötete. Nach stundenlangen Verhandlungen entschloss sich die Polizei, so gegen den Mann vorzugehen, der zuvor fünf Kollegen erschossen hatte. Einige Wochen vorher hatte sich in Florida ein tödlicher Unfall unter Beteiligung eines selbstfahrenden Tesla-Autos ereignet. Der Wagen hatte einen Lkw übersehen, der Insasse des Autos starb. In beiden Fällen handelten Roboter. Der Polizistenmörder sollte getötet werden. Der Tesla-Insasse wurde Opfer eines Automatenfehlers. Es hätte auch umgekehrt laufen können: Ein Passant wird in Dallas getötet; das Tesla-Auto surrt weiter über den Highway.

Wer haftet, wenn etwas schiefläuft? Roboter verändern rapide unser Leben und Arbeiten. Routinetätigkeiten - manuelle und kognitive - werden automatisiert. In zehn Jahren wird etwa ein Drittel aller Arbeitsplätze durch Roboter ersetzt sein. Dabei spielt das Recht eine zentrale Rolle: Es entscheidet über erlaubte Formen der artifiziellen Intelligenz und über die Kosten neuer Produkte und Technologien. Gleichzeitig gibt es ungelöste Fragen: Recht wird von Menschen für Menschen gemacht. Wie soll das Recht Roboter behandeln? Wer haftet für Unfälle? Sollten Roboter rechtsfähig sein? Sollten sie Eigentum erwerben und Verträge schließen können?

Diese Fragen lassen sich nur im Zusammenhang beantworten. Nötig ist eine profunde Analyse der Effekte konkreten Roboterverhaltens. Auch die normative Tiefenstruktur einer bestimmten Gesellschaftsordnung ist relevant. Anhand der Haftung für Unfälle selbstfahrender Autos lässt sich dies veranschaulichen.

In etwa 20 bis 25 Jahren werden etwa 75 Prozent aller Autos selbstfahrend sein. Das wird durchaus positive Folgen haben. Derzeit sterben weltweit etwa 1,3 Millionen Menschen pro Jahr bei Verkehrsunfällen. Etwa 90 Prozent der Unfälle sind auf menschliches Versagen zurückzuführen, neun Prozent auf Umwelteinflüsse und weniger als ein Prozent auf technische Defekte. Selbstfahrende Autos werden die tödlichen Verkehrsunfälle dramatisch reduzieren - der Unfall in Florida sollte darüber nicht hinwegtäuschen.

Gleichzeitig steigern selbstfahrende Autos die Mobilität alter Menschen und von Personen mit Behinderungen. Sie reduzieren die Opportunitätskosten des Fahrens: Im Durchschnitt verbringen wir etwa vier Jahre unseres Lebens hinter dem Steuer - Zeit, die wir produktiver nutzen könnten. Schließlich: Die Zahl der Autos wird aufgrund von Carsharing zurückgehen. Damit wird Parkraum frei, Emissionen werden gesenkt, Reisezeiten verkürzt. Natürlich wird es auch negative Effekte geben: Arbeitslosigkeit von Taxi- und Busfahrern, ein erhöhtes Risiko von Großunfällen vernetzter Autos durch Cyber-Attacken. Und es werden Unfälle wie der in Florida geschehen. Wer haftet zivilrechtlich?

Man sollte der Versuchung widerstehen, Roboter wie Menschen zu behandeln

Niemanden haftbar zu machen, wäre sicher keine gute Lösung. Erwartete Unfallkosten würden durch die Produzenten nicht in den Preis eingerechnet; diese hätten so falsche Produktionsanreize. Zudem würden wir dann selbstfahrende Autos kaum nutzen oder kaufen. Sinnvoll erscheint eine strenge (verschuldensunabhängige) "deliktische" Haftung des Autoherstellers. Er ist in der besten Position, Risiken zu kontrollieren und Nutzen/Kosten abzuwägen. Würde man die Haftung vom Verschulden abhängig machen, wären die Gerichte dazu gezwungen, die angemessene Sorgfalt festzulegen, was bei Robotern sehr schwierig werden dürfte. Und auch die Aktivität der Produzenten würde so nicht erfasst, also die Zahl der produzierten und verkauften Autos.

In Betracht zu ziehen ist neben einer Haftung des Autoherstellers auch eine Haftung des Komponenten-Herstellers, der für das defekte Teil - Sensoren, Software und Ähnliches - verantwortlich ist. Indes ist es schwierig, Unfallursachen bei komplexen Technologien präzise zu identifizieren. Auch kontrolliert der Autohersteller das Gesamtsystem, einschließlich der Komponenten. Im Verhältnis zum Geschädigten sollte es damit bei der strengen deliktischen Haftung des Autoherstellers bleiben - dass dieser gegen den Komponenten-Hersteller vertraglich vorgehen kann, steht auf einem anderen Blatt. Gleichzeitig sollten Autohersteller verpflichtet werden, Haftpflichtversicherungen abzuschließen, die im Insolvenzfall greifen. Deren Prämie ließe sich personalisieren, also auf den Hersteller, das konkrete Auto und das Eigentümer- und Nutzerverhalten zuschneiden. So würde gleichzeitig dem Aktivitätsniveau der Eigentümer und Nutzer Rechnung getragen.

Diese Lösung entspricht offenbar der Marktentwicklung: Im Oktober 2015 erklärte Volvo, die Haftung für Unfälle seiner selbstfahrenden Autos zu übernehmen. Das war ein Signal an den Markt: Wir vertrauen unserer Technologie. Wettbewerber von Volvo werden es schwer haben, sich diesem Signal zu entziehen.

Sollte aber statt Volvo oder Tesla das Auto selbst haften? Auf den ersten Blick ist die Frage absurd. Das Auto ist eine Sache, keine rechtsfähige Person. Aber gemach: Im Jahre 2015 kaufte ein Roboter Ecstasy-Pillen und einen gefälschten ungarischen Pass im Darknet. Der Roboter - und nicht der Künstler, der die Installation schuf - wurde drei Monate von der schweizerischen Polizei in Gewahrsam genommen. Intelligente Roboter agieren aufgrund von Maschinenlernen in einer Weise, die der Hersteller nicht voll voraussehen kann. Für einen Außenstehenden sind sie in der Lage, zweckorientiert und sogar ethisch verantwortungsvoll zu handeln. Forschungen zeigen, dass wir anthropomorphe Roboter wie Menschen behandeln - sollten wir ihnen dann nicht auch menschliche Rechte zuerkennen, um zu vermeiden, dass wir sonst auch wirkliche Menschen misshandeln? Und ferner: Wir gewähren juristischen Personen wie einer Aktiengesellschaft Rechtsfähigkeit. Juristische Personen aber gibt es nur auf dem Papier. Sind intelligente Roboter weniger real?

Die meisten werden trotz dieser Erwägungen einer Rechtsfähigkeit von Robotern skeptisch gegenüberstehen, und das mit Recht: Roboter können Regeln einhalten, aber sie können ihnen nicht folgen, weil sie ihre Bedeutung nicht verstehen. Würden wir Roboter mit Rechtsmacht ausstatten, würden wir darüber hinaus das menschliche Leben im wahrsten Sinne des Wortes dehumanisieren. Juristische Personen sind kein gutes Gegenargument, weil sie immer nur durch Menschen handeln können. Roboter können tödlich sein. Wir sollten der Versuchung widerstehen, sie wie Menschen zu behandeln. Goethe sagte: "Nur der Mensch vermag das Unmögliche; er unterscheidet, wählet und richtet . . .".

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: