autonome Autos:Wer muss sterben?

Selbstfahrendes Google-Auto

Selbstfahrendes Google-Auto in Mountain View, Kalifornien.

(Foto: dpa)

Wenn autonome Autos außer Kontrolle geraten, gibt es keine ethisch korrekte Antwort. Das zeigt das bekannte Trolley-Problem. Letztlich muss der Zufall entscheiden.

Kommentar von Christian Weber

Dummerweise gibt es Probleme auf dieser Welt, die sich nicht zufriedenstellend lösen lassen. Sie zu ignorieren, hilft leider nicht, denn auch damit trifft man eine Entscheidung. Deutlich zeigte sich das jetzt wieder beim in dieser Woche publizierten Bericht der Ethik-Kommission zum automatisierten Fahren, die vom Bundesminister für Verkehr eingesetzt worden war.

In dem Bericht ging es auch um das bei Moralphilosophen beliebte sogenannte Trolley-Problem: Eine Straßenbahn ist außer Kontrolle geraten und wird gleich eine Gruppe von fünf Menschen überfahren. Ist es gerechtfertigt, durch Umlegen einer Weiche den Zug auf ein anderes Gleis zu lenken, wo er ebenfalls einen Menschen überfahren würde, aber eben nur einen? Es ist ein Dilemma, in das auch autonome Autos geraten könnten: Wie soll der Algorithmus entscheiden, ob die von ihm gesteuerte Maschine einen 73-jährigen Rentner tötet, um drei Schulkindern das Leben zu retten, oder nicht?

Im einen Fall müssten die Kinder, im anderen der Rentner sterben

Darauf gibt es zwei Antworten, je nachdem welcher philosophischen Ethik man anhängt. Entweder rechtfertigt das Glück der größeren Zahl den Schaden eines unschuldigen Einzelnen - oder nicht. Im einen Fall müssten die Kinder, im anderen der Rentner sterben. Im deutschen Recht stellt sich die Frage allerdings ohnehin nicht, da in ihm Menschenleben nicht gegeneinander abgewogen werden dürfen. Insofern wundert es nicht, wenn sich die Ethik-Kommission vor einer Antwort drückt und schwammig eine öffentliche Einrichtung fordert, um "Erfahrungen systematisch zu verarbeiten".

Eine Lösung ist das nicht. Die Empfehlung könnte lediglich dazu führen, dass die vor der Tür stehende Einführung autonomer Fahrzeuge wegen eines selten vorkommenden Dilemmas verschoben wird, obwohl die neue Technik wahrscheinlich die Zahl der Verkehrsunfälle drastisch reduzieren würde. Das Trolley-Dilemma zeigt, wie die Digitalisierung die Menschen zwingt, sich mit Graubereichen der Ethik zu beschäftigen, die sie früher der akademischen Philosophie und auf der Straße dem Zufall überlassen konnten. Wie sollte man auch von einem Autofahrer erwarten, dass er in der Extremsituation eines Unfalls binnen Millisekunden eine rationale ethische Güterabwägung macht? Und vorher programmieren lassen sich Menschen nun mal nicht, sie bleiben unberechenbar.

Aber vielleicht liegt in dieser Einsicht auch die Lösung für das autonome Fahren. Da sich die Philosophen nie einigen werden, könnte man es bei Trolley-Ereignissen so machen wie in der Alltagsrealität: Ein Zufallsgenerator sollte entscheiden, welchen Weg das Auto nimmt.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: