Süddeutsche Zeitung

Roboter:Schuld und Maschine

Lesezeit: 3 min

Roboter können vor Gericht nicht verurteilt werden - zerstören sie etwas, ist der Mensch verantwortlich. Würzburger Forscher stellen diese Ansicht nun in Frage.

Christian Weber

Bislang galten Roboter bei Richtern und Anwälten als juristisch kaum satisfaktionsfähig, elektrifizierte Blechtrottel eben. Was soll man groß über Schuld, Moral und Verantwortung reden bei Maschinen, die noch immer nicht gelernt haben, ordentlich Treppen zu steigen und deren Geistestätigkeit sich auf das automatische Verarbeiten binärer Codes beschränkt? Verursachten sie Schäden, schien die Sache klar: Der Schöpfer war schuld - also immer der Mensch.

Unter anderem ein neues, von der Deutschen Forschungsgemeinschaft (DFG) finanziertes Forschungsvorhaben an der Universität Würzburg stellt diese Sichtweise nun in Frage: Das Projekt "Robotik und Recht" unter der Leitung des Juristen Eric Hilgendorf und des Robotik-Experten Klaus Schilling basiert auf der Annahme, dass bei modernen autonomen Systemen, die Zuschreibung von juristischer Verantwortung nicht mehr trivial ist - und dass sich derartige Probleme in der Zukunft noch verschärfen werden.

Roboter, die eigene Entscheidungen treffen

Die Forscher geben überzeugende Beispiele: Angenommen, ein älterer, gehbehinderter Mensch lässt sich von seinem autonomen Transport-Rollstuhl in die Stadt fahren. Eigentlich soll das System nach Eingabe des Zieles seinen Weg von alleine finden.

Doch unterwegs weicht der Rollstuhl plötzlich einem Hindernis aus und bringt dadurch einen Fahradfahrer zu Sturz, der am Kopf verletzt wird. Wer ist rechtlich verantwortlich: der Hersteller des Rollstuhls, der Programmierer der Navigationssoftware oder der ältere Mann, der es vielleicht unterlassen hat, rechtzeitig in die Fahrt einzugreifen und einen Bremsknopf zu drücken?

"Schon heute gibt es Roboter, die in der Lage sind, Wege autonom zurückzulegen und dabei innerhalb eines gewissen Rahmens Entscheidungen selber zu treffen", sagt die Juristin Susanne Beck, die an dem Forschungsprojekt beteiligt ist.

Auch Autohersteller arbeiten bereits seit längerem an Fahrzeugen mit Autopilot, die Einführung von Pflegerobotern in Altenheimen und Krankenhäusern ist vorstellbar.

Die Frage nach der Schuld stellt sich neu

Dabei sei noch nicht einmal geklärt, wie selbststeuernde Fahrzeuge versichert werden sollen. "Das läuft momentan wie bei einem Mofa - ohne dass dabei berücksichtigt wird, dass der Roboter autonom fährt", kritisiert Beck. "Wenn es um Roboter geht, ist aus rechtlicher Sicht derzeit wenig geregelt.

Richtlinien zur Orientierung fehlen weitgehend und die Diskussion ist noch am Anfang", bestätigt Eric Hilgendorf. Wer also übernimmt die Verantwortung, wenn Expertensysteme verheerende Ratschläge geben oder die selbststeuernde militärische Drohne Zivilisten in die Luft sprengt?

Probleme bereiten dabei nicht nur mechanische Roboter, die außer Kontrolle geraten sind und Schäden und Verletzte hinterlassen. Auch moderne Medizintechnik könnte ungeahnte juristische und moralische Probleme aufwerfen, warnen die Forscher.

So wisse man mittlerweile, dass sogenannte Hirnschrittmacher, die Symptome der Parkinson-Krankheit lindern können, bei manchen Patienten einen unerwarteten Nebeneffekt auslösen: Sie steigern deren Sexualtrieb. Susanne Beck fragt: "Wenn ein Betroffener dann einen Dritten sexuell nötigt: Kann man ihn dafür verantwortlich machen?"

Die Frage nach Schuld und Verantwortung stellt sich neu

An solchen Fällen zeige sich, dass sich die Verantwortlichkeiten im anbrechenden Zeitalter der Maschinenwesen nicht mehr so klar abgrenzen lassen. " Früher war die Angelegenheit klar: Der Mensch hat die Entscheidung getroffen; die Maschine hat sie bestenfalls ausgeführt", erläutert Hilgendorf. "Heute gibt es längst Zwischenstufen, bei denen diese strikte Trennung nicht mehr funktioniert. Hier stellt sich die Frage nach Schuld und Verantwortung ganz neu."

So wundert es nicht, dass einige Wissenschaftler bereits den nächsten Schritt gehen und den Robotern selbst Rechte und Pflichten auferlegen wollen, deren Verletzung dann auch bei ihnen geahndet werden soll.

Ein gewisses Aufsehen in Fachkreisen erregte der mittlerweile in Hongkong lehrende Philosoph Andreas Matthias, der im Jahre 2008 an der Berliner Humboldt-Universität mit einer Arbeit über "Automaten als Träger von Rechten" promoviert wurde. In dieser plädiert er für ein Roboter-Strafrecht.

Seiner Ansicht nach sei es gar nicht nötig, dass ein Automat ein künstlich erzeugtes Bewusstsein und Schuldeinsicht haben muss, um strafmündig zu werden. Entscheidend sei, dass man nicht mehr Hersteller und Personal für das Treiben von autonomen Maschinen verantwortlich machen könne.

Da diese selber lernen und auf neuronalen Netzwerken und genetischen Algorithmen basieren, seien sie irgendwann für sich selbst verantwortlich, so wie ein Mensch der sein Elternhaus verlassen hat. Bei einem solchen Entwicklungsstand sei es erlaubt, sie als juristische Personen zu betrachten, die selbst aufkommen müssen für das Unheil, das sie angerichtet hat. Verdienen Roboter also elektrische Strafen?

Die Lösung, die Andreas Matthias skizziert ist pragmatisch: Da Roboter mit ihrer Arbeit Geld verdienen, sollte ein Teil des von ihnen erzeugten Mehrwerts etwa in einer Versicherung angelegt werden. Diese könnte dann Schäden begleichen.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.7152
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ vom 15.04.2010/cosa
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.