Zugunglück von Bad Aibling:Fehler wird es immer geben - trotz aller Automatisierung

Lesezeit: 3 min

Die vollautomatische U-Bahn in Nürnberg, die schon seit dem Jahr 2008 führerlos unterwegs ist. (Foto: dpa)

Stellwerke ohne Fahrdienstleiter? Flugzeuge ohne Piloten? Nach einem Unglück wie in Bad Aibling mag die Vision einer Technik plausibel erscheinen, an die der Mensch seine Verantwortung abgeben kann. Aber so einfach ist es nicht.

Kommentar von Matthias Drobinski

Im Verhältnis zwischen Mensch und Technik ist das größte Problem der Mensch. Ständig macht er Fehler. Er lässt sich von Hass oder Liebe leiten. Er entscheidet nach Zuneigung oder Abneigung. Er überschätzt sich in seinem Übermut, und geht etwas schief, gerät er in Panik; außerdem sieht er schlecht und reagiert langsam. Er denkt sich nichts bei seinem Tun, oder, noch schlimmer: Er denkt sich was dabei. In Tschernobyl, vor 30 Jahren, wollten die Techniker mal eben den Notfall simulieren und verursachten eine Katastrophe. Der Kapitän der Costa Concordia fuhr schön nah an der Küste vorbei und setzte sein Schiff auf Grund. Der Fahrdienstleiter in Bad Aibling daddelte offenbar auf dem Handy - zwei Züge stießen zusammen, zwölf Menschen starben.

So gesehen, sollte man den Menschen nicht vor Knöpfe setzen oder hinter Lenkräder und Steuerknüppel; für diese Erkenntnis brauchte es nicht einmal jenen unseligen Piloten, der sein Flugzeug vor die Felswand steuerte und sich und 149 andere Menschen tötete.

Autos ohne Fahrer? Stellwerke ohne Fahrdienstleiter? Schwierig

Also ist es nur gut, dass Ingenieure und Software-Entwickler daran arbeiten, Menschen, diese Problemfälle, aus der Verantwortung zu nehmen. Sie tun das erfolgreich und zum Nutzen der Menschen. Das vollautomatische Sägewerk arbeitet schnell, effizient und ohne abgeschnittene Finger. In Paris wie in Nürnberg fahren führerlose, elektronisch geleitete U-Bahnen seit Jahren unfallfrei; seit dem Unglück von Bad Aibling hat die Diskussion an Gewicht gewonnen, ob es das nicht auf allen Zugstrecken geben sollte. Anekdoten von der Stotterbremse klingen im Zeitalter des Antiblockiersystems wie aus Papas Nähkästchen. Inzwischen erproben die Autobauer fahrerlose Modelle, die Verkehrszeichen erkennen, den Abstand zum Vordermann einhalten und schon bremsen, wenn der Mensch noch erschrocken die Augen aufreißt.

Ihr Forum
:Welche Rolle darf der Faktor Mensch noch spielen?

Die Untersuchungen zum Zugunglück in Bad Aibling nehmen eine neue Wendung. Der zuständige Fahrdienstleister ließ sich wohl von einem Handy-Spiel ablenken und soll grob fahrlässig gehandelt haben. Brauchen wir computerisierte Sicherungssysteme?

Trotz allem aber, der Faktor Mensch bleibt. Er muss auch bleiben, trotz aller Automatisierung. Dass es vielen Menschen bei der Vorstellung unwohl wird, pilotenlos nach New York zu fliegen, ist dafür noch das schwächste Argument; gewöhnen kann man sich an ziemlich viel. Stärker ins Gewicht fällt, dass der absoluten Fehlerfreiheit technische und ökonomische Grenzen gesetzt sind. Je sicherer Systeme sind, desto teurer ist es meist, sie noch sicherer zu machen; irgendwann ist der zusätzliche Nutzen marginal, bei extrem hohen Kosten. Und wie weit der Weg von der Spielerei zum alltagstauglichen Konzept ist, zeigen die Anfänge des automatisierten Fahrens: Der computergesteuerte Wagen bleibt stehen, wenn im Überholverbot die eigene Spur blockiert ist. Wann der Regelbruch geboten ist und wann er tödlich wäre, kann eine Software nicht klären. Kein Entwickler kann alle möglichen Situationen im Verkehr voraussehen. Er ist ja auch nur ein Mensch.

Technik ist auch nicht unfehlbar

Es sind ja auch Menschen, die diesem selbstfahrenden Auto ins Programm schreiben, wie es sich verhalten soll, wenn es brenzlig wird. Soll es dem Kind ausweichen, das auf die Straße läuft, selbst, wenn dies die Insassen gefährdet? Wer haftet, wenn die Software das Kind für einen großen Hund hält und die Spur hält? Wer entscheidet über diese Entscheidungen: der Autobauer, die Justiz, eine wie auch immer besetzte Ethikkommission? Darf überhaupt die Ethik der anderen die eigene Verantwortung ersetzen?

Sie darf es nicht. Verantwortung ist immer individuell und situativ. Deshalb kann es zwar sinnvoll sein, dem Autofahrer den Autopiloten an die Seite zu stellen oder den Fahrdienstleiter an der Bahnstrecke durch einen Computer zu ersetzen. Es muss aber diese individuelle und situationsgebundene Verantwortung weiterhin ermöglicht sein, im Sägewerk, im Cockpit, auf dem Fahrersitz - weil die Technik als Menschenwerk ja auch nicht unfehlbar ist. Und damit muss es auch immer den Raum für Fehler geben: Der da Verantwortung übernimmt, kann das Richtige tun und das Falsche; er kann seiner Verantwortung gerecht werden oder auch nicht, aus Hass oder Liebe - oder einfach, weil er aufs Handy starrt und spielt.

Die Vorstellung, den Fehler aus der Welt schaffen zu können, ist eine der großen Versuchungen des Computer-, Gen- und Nanotechnikzeitalters. Sie ist aber selber ein großer Fehler. Die Vision von der fehlerfreien Technik ist ein bequemer Ausweg aus den Risiko- und Verantwortungsdebatten, die eine hoch technisierte Gesellschaft immer wieder neu führen muss. Der Traum von der perfekten Technik ist in Wahrheit eine Entgrenzungsfantasie, obwohl es einen Begrenzungs-Realismus bräuchte und die Forschung an einer fehlerfreundlichen Technik. Denn der Mensch bleibt Mensch, in all seinen Macken und all seiner Kurzsichtigkeit. Zum Glück.

© SZ vom 14.04.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Risikoforschung
:Wie der Mensch mit Risiken umgehen sollte

Gebratener Speck löst Krebs aus? Bahnreisen ist gefährlich? Der Wissenschaftler David Spiegelhalter erklärt, wie Menschen Risiken wahrnehmen.

Von Sebastian Herrmann

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: