Süddeutsche Zeitung

Der Ethiker:Brauchen wir eine Roboterethik?

Der Philosoph Volker Gerhardt klärt die Argumente der Wissenschaftler und Politiker: Was sollen und was dürfen sie verlangen? Diesmal: Philosophische Auskünfte zur Moral von Robotern.

Zu den wenigen Unterschieden zwischen Mensch und Tier gehört, dass der Mensch eine Selbststeuerung durch Ethik benötigt. Das ist kein Grund, sich den Tieren überlegen zu fühlen. Im Gegenteil: Beim Menschen fehlen zahlreiche angeborene oder in früher Prägung erworbene Verhaltensweisen.

Die damit verlorene Sicherheit ist durch Selbstbestimmung zu kompensieren. Dazu werden sachhaltiges Wissen, selbstbewusste Verständigung mit seinesgleichen und Selbsterkenntnis benötigt. Wo sie fehlen, hat es keinen Sinn, einem Lebewesen moralische Vorhaltungen zu machen. Deshalb sehen wir mit guten Gründen davon ab, Tieren den Prozess zu machen.

Mit den technischen Erfindungen des Menschen verfahren wir ebenso. Nicht das Messer ist schuld, wenn einer erstochen wird, sondern der Täter. Zwar gibt es die Versuchung, der Industrie, militärischen Waffen oder der Technik überhaupt eine Mitschuld an der Selbstgefährdung des Menschen zuzuschreiben. Aber diese Schuldzuweisungen halten keiner Prüfung stand.

Alles, was zu etwas gut ist, kann missbraucht werden. Die moralische Verantwortung liegt allein beim Menschen. Auf den ersten Blick sieht es so aus, als müsse man so auch über die Roboter urteilen. So sagt Noel Sharkey, einer der führenden britischen Roboterforscher: "Wir brauchen keine Roboterethik, sondern wir brauchen eine menschliche Ethik."

Dem zweiten Teil des Satzes wird niemand widersprechen. Der Mensch ist der Konstrukteur der intelligenten Maschinen. Er trägt Verantwortung für das, was er baut. Wenn er Werkstraßen einrichtet, deren Arbeitstempo die Menschen überfordern, dann sind Ingenieure schuld. Wenn er Überwachungssysteme in der Kindererziehung oder in der Altenbetreuung schafft, die keinen Raum für menschliche Verständigung lassen, liegt der Fehler bei den Auftraggebern.

Sie müssen davon ausgehen, dass die Technik dem Menschen zu dienen hat und nicht umgekehrt. Zwar wissen wir von der Lust des Menschen, sich im Dienst an der Technik selbst zu überbieten. Bei Formel-1-Piloten oder Computerautisten scheint das Instrument das Maß ihres Verhaltens zu sein. Um ihre Besessenheit zu kurieren, kann man sie ablenken oder ihnen die Beschäftigung nehmen. Aber niemand käme auf die Idee, den Boliden oder dem PC eine Moralpredigt zu halten. Die hat sich immer an den Menschen zu richten.

Bei den intelligenten Maschinen hingegen könnte die Sache eines Tages anders sein. Sie sind darauf angelegt, aus gewonnenen Erfahrungen zu lernen, damit sie flexibel auf unvorhergesehene Reize reagieren. Sie brauchen eine Sensibilität für die Situation, die sie bewältigen sollen. Zu der Situation aber können auch moralische Grenzbedingungen gehören, die vom Roboter erfasst und in seinem Arbeitsprogramm berücksichtigt werden müssen.

So lassen sich schon heute den Fußballrobotern nicht nur Spielregeln einprogrammieren, sondern auch die moralischen Prinzipien des Fairplay. Damit hat auch ein Roboter eine moralische Entscheidung zu treffen.

Gesetzt, er kann die Fairnessregel beiseite lassen, wenn er eine Torchance erkennt, dann ist er in derselben Lage wie ein Spieler aus Fleisch und Blut: Er braucht nur eine Kenntnis der Lage, eine Kalkulation der eigenen Kräfte und ein Programm zur Bewertung des Risikos. Und gesetzt, das Foul wird geahndet, spricht nichts dagegen, dass der Roboter einen Gewissensspeicher hat und aus dem Misserfolg lernt.

So konstruierte Maschinen müssen über eine elementare Bedingung der menschlichen Ethik verfügen: Sie müssen nicht nur Situationen, sondern auch eigene Chancen bewerten können. Sie brauchen, wie der Roboterprophet Marvin Minsky sagt, "Weltwissen" und dazu ein "Wertesystem", nach dem sie ihre Handlungen beurteilen.

Natürlich müssen ihnen Konstrukteure das Wissen, die Werte und die Grenzbedingungen implantieren. Wenn Roboter die Intelligenz haben, die wir von ihnen erwarten, müssen sie produktiv mit diesen Eingaben umgehen und sie nach eigenen Erfahrungen entwickeln. Dann ist zumindest nicht ausgeschlossen, dass ein intelligenter Automat "begründet", warum er in einer schwierigen Lage so und nicht anders gehandelt hat. Damit wäre eine wesentliche Bedingung einer Roboterethik erfüllt, die den Menschen zwar nicht aus einer Verantwortung entlässt, von der er aber lernen könnte.

Weitere spannende Themen aus dem SZ Wissen finden Sie hier. Das neue Heft bekommen Sie jetzt am Kiosk.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.571925
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ-Wissen, Ausgabe 6/2008/beu
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.