Technik:Die Illusion der Sicherheit

Der Mensch ist die größte Fehlerquelle, das zeigen viele Katastrophen. Sollte man aber deshalb der Technik die wichtigen Entscheidungen überlassen?

Von Matthias Drobinski

Die Frage drängt, bohrt, quält: Wie konnte passieren, was eigentlich gar nicht passieren können durfte? Wie konnten zwischen Bad Aibling und Rosenheim zwei Züge ineinander rasen, obwohl sie doch automatisch hätten gestoppt werden müssen? Alle Experten hielten das System für zuverlässig, das nach 2011 den Bahnverkehr noch sicherer machen sollte - damals hatte es einen kaum für möglich gehaltenen Zusammenstoß eines Personenzugs mit einem Güterzug in Sachsen-Anhalt gegeben, mit elf Toten. Und jetzt wieder elf Tote. Weil die Technik versagt hat, es doch eine Lücke im System gab? Oder weil ein Mensch einen verhängnisvollen Fehler gemacht hat? Die Geschichte des Faschingsdienstags, der seine Fröhlichkeit verlor, ist auch die Geschichte über die Grenzen von Mensch und Technik - und über die Frage, wie viel Sicherheit und wie viel Risiko sich eine hoch technisierte Gesellschaft leisten will.

Es werden die privaten Bahnunternehmer nun ebenso wie die Deutsche Bahn ihre Sicherheitsstandards noch einmal überprüfen, noch einmal erhöhen. Das sind sie den Toten und Verletzten schuldig, das ist aber auch ökonomisch geboten: Mit einer Bahn, der die Frage nach dem nächsten Unfall egal zu sein scheint, fährt niemand gern. Wahrscheinlich werden fast alle Vorschläge darauf hinauslaufen, den Faktor Mensch im Betrieb zu verkleinern: Die Fahrdienstleiter dürften bald deutlich höhere Hürden überwinden müssen, um in den Verkehr eingreifen zu können, die Signalsysteme noch rigoroser bremsen, wenn etwas nicht nach Plan läuft. Es wird schon jetzt darüber diskutiert, ob es bald weitgehend oder vollkommen automatisch fahrende Züge geben sollte. In Paris fährt die Linie 1 auf 17 Kilometern ohne Fahrer und seit 2011 ohne Probleme, die Nürnberger U-Bahn tut das schon seit 2008, warum nicht auch in Oberbayern oder Friesland? Natürlich kann auch die Technik fehlerhaft sein oder ganz ausfallen - aber "der Mensch ist immer das größere Risiko", sagt Jochen Trinckauf, Professor für Verkehrssicherungstechnik an der TU Dresden.

A Tokyo Electric Power Co. employee, wearing a protective suit and a mask, walks in front of the No. 1 reactor building at TEPCO's tsunami-crippled Fukushima Daiichi nuclear power plant in Okuma town

Mal ist der Mensch das Risiko, mal die Technik: Ein Arbeiter vor dem Reaktor von Fukushima.

(Foto: Toru Hanai/Reuters)

Das Unvollkommene und Fehlbare des Menschen verringern, gar beseitigen - das ist das Versprechen der Technik und des technischen Fortschritts insgesamt. Es ist der Menschheit, vom Faustkeil übers Rad bis zur Computer-, Gen- und Nanotechnik, ausgesprochen gut gelungen: Verglichen mit dem Leben eines Steinzeitmenschen kommen die Möglichkeiten seiner Nachfahren im 21. Jahrhundert tatsächlich der Perfektion nah. Neu aufgetaucht ist seitdem allerdings die Debatte über die Kosten und Risiken des Fortschritts. Beherrscht der Mensch die Technik - oder nicht die Technik den Menschen, wie schon der Philosoph Martin Heidegger fürchtete? Wer sich in ein Auto, Flugzeug oder eben eine Bahn setzt, kann bei einem Unfall sterben. Wer per Atomkraft Strom erzeugt, riskiert, dass ganze Landstriche unbewohnbar werden, wenn etwas schiefgeht. Wer mit Atomwaffen den Frieden sichern will, kann im Weltuntergang enden.

Und so geht ein zunehmender Anteil des Erfinder- und Entwicklergeists in die Bemühungen, diese Risiken zu verringern, die Technik beherrschbar zu machen - und den Menschen als größten Risikofaktor möglichst zum Zuschauer zu degradieren. Meist waren es, so tragisch wie logisch, Unglücke, die einen neuen Schub in der Sicherheitstechnik brachten - angefangen beim Untergang der "praktisch unsinkbaren" Titanic, der auch der Ehrgeiz des Kapitäns zum Verhängnis wurde: Es gab bald einen Eisberg-Warndienst und internationale Sicherheitsstandards für Schiffe. Insgesamt ist so die Fortbewegung in den Industrieländern sehr sicher geworden, vor allem, wenn man bedenkt, wie sehr dieser Verkehr zugenommen hat. "Beim Schiffs-, Flugzeug-, Auto- und Eisenbahnverkehr ist insgesamt die Zahl der Unfallopfer deutlich gesunken", sagt der Stuttgarter Umwelt- und Techniksoziologe Ortwin Renn. Er sagt aber auch: "Seit einigen Jahren sind diese Opferzahlen ungefähr gleichbleibend - es gibt ein hohes Sicherheitsniveau, und trotzdem muss man offenbar eine gewisse Zahl von Unfällen hinnehmen." Irgendwann bringen auch die aufwendigsten Sicherungssysteme nur noch unbedeutend mehr Sicherheit.

Germanwings-Absturz

Ein Wrackteil der Germanwings-Maschine in den französischen Alpen.

(Foto: Sebastien Nogier/dpa)

Absolute Sicherheit gibt es nicht - der Satz klingt banal. Er wird oft so dahingesagt, achselzuckend gegenüber den vielen Fragen, dem Erklärbaren und Unerklärbaren, dem Leid der Opfer und der Trauer der Hinterbliebenen. Dabei steckt in ihm die wahre Herausforderung fürs Zeitalter der oft noch kaum zu fassenden technischen Entwicklungen. Der Soziologe Ulrich Beck hat sie schon 1986, noch vor der Reaktorkatastrophe von Tschernobyl, in seinem Buch über die "Risikogesellschaft" beschrieben: Wenn es diese letzte Sicherheit nicht gibt, muss eine Gesellschaft, ein Staatswesen entscheiden, welche Risiken man einzugehen bereit ist und welche nicht. Wo will sie sich dem schwankenden Boden anvertrauen und wo nicht? Wo erscheinen im Unglücksfall die möglichen Kosten zu hoch?

Absolute Sicherheit kann es nicht geben, weil der Mensch eben Mensch ist, mit allen Stärken und Abgründen. Er kann intuitiv das Richtige tun, wo einem mit Rechenmodellen arbeitenden Sicherungssystem die Intuition fehlt. Er kann aber auch die Katastrophe trotz aller Sicherungen herbeiführen, oft aus Übermut und Selbstüberschätzung. Das Team aus Tschernobyl wollte mal eben den Notfall simulieren, der Kapitän der Costa Concordia besonders nah an der Insel Giglio vorbeifahren. Auch die vom Menschen entwickelte Technik bleibt fehlbar, wie das Eisenbahnunglück von Eschede 1998 zeigt, bei dem ein Radreifen brach, oder der Absturz eines neuen Airbus A400M im vergangenen Jahr durch einem Softwarefehler.

3569 Menschen

starben im Jahr 2014 in Deutschland bei Autounfällen, Flugzeugabstürzen und im Schienenverkehr. Anders als in Bad Aibling kamen in den Jahren zuvor keine Menschen bei Zugunfällen ums Leben. Die Opfer starben, weil sie sich auf Bahnübergängen aufhielten oder der Stromleitung zu nahe kamen.

Es kann niemand alle Sicherungssysteme auf alle Möglichkeiten einstellen, das übersteigt die Vorstellungskraft der besten Sicherheitsexperten. Nach den Attentaten vom 11. September 2001 wurden in den Flugzeugen die Cockpit-Türen so umgebaut, dass sie von außen nicht mehr zu öffnen waren - ein Co-Pilot der Germanwings nutzte ausgerechnet dies, um den Piloten auszusperren und 150 Menschen in den Tod zu fliegen. Nach Tschernobyl sagten die Atomreaktor-Betreiber im Westen selbstbewusst, dass ihnen so etwas nicht passieren könne. Bis Fukushima kam.

Selbst der hoch gelobte vollautomatische Betrieb wird das Problem nicht lösen. Auch dort wird es Eingriffsmöglichkeiten für Menschen geben müssen, für den Fall eines Softwarefehlers oder Stromausfalls. Und welche neuen Dilemmata die Herrschaft des Algorithmus mit sich bringt, zeigt die Debatte ums selbstfahrende Auto. Was soll geschehen, wenn nur die Alternative bleibt, einen Fußgänger zu überfahren oder den Wagen samt Fahrer an den Baum zu setzen? Soll die Software den Fahrer schützen oder den Fußgänger? Den Fußgänger, wenn er jünger ist als der Fahrer? Entscheidet ein Zufallsgenerator? Der Fahrer würde seine Verantwortung einem Programm übergeben, in dem die Ethik von anderen steckt: die Ethik des Staates oder des Autoherstellers. Die Vorstellung von der Verantwortung als wichtigem Teil des Individuums würde sich sehr ändern.

Technik: Die Unglücksstelle in Bad Aibling.

Die Unglücksstelle in Bad Aibling.

(Foto: Matthias Schrader/AP)

Will man das - um das Unfallrisiko des gefährlichsten Verkehrsmittels zu verringern, des Autos? Die Frage nach dem Wollen gewinnt in reichen und technologisch gerüsteten Ländern gegenüber der Frage nach dem Können an Gewicht. Wie dicht, wie schnell darf der Verkehr sein, was darf die Sicherheit kosten, wann wird sie unbezahlbar? Oder, noch weiter gefasst: Wie viele der endlichen Ressourcen der Erde darf dieser Verkehr verbrauchen, vor allem der Individualverkehr?

Die einen verharmlosen die Risiken, die anderen streuen diffuse Ängste

Die Frage, welches Risiko akzeptabel ist, stellt sich bei der Bio- und Gentechnik wie bei der Frage nach den Grenzen von Big Data. Bei der Atomkraft ist sie in Deutschland zumindest vorerst beantwortet: Die Betreiber der Kraftwerke hatten viele Milliarden Euro in die Sicherheit ihrer Anlagen gesteckt, ein schwerer Atomunfall erschien als sehr unwahrscheinlich. Trotzdem war einer Mehrheit in der Bevölkerung und der Politik das mit dem unwahrscheinlichen Fall verbundene Risiko zu hoch. Bis zu dieser Entscheidung brauchte es 30 Jahre Debatte, die Atomkatastrophe von Fukushima - und neue Möglichkeiten, um aus Sonne und Wind genügend Energie für ein Industrieland mit gehobenen Ansprüchen zu gewinnen.

Risikodebatten sind komplex und schwierig - selbst eine so einfache Diskussion wie die, welche Konsequenzen aus dem Unglück von Bad Aibling zu ziehen sind, wo sich die Frage gar nicht stellt, ob dies das Ende des Bahnverkehrs sein könnte. Risikodebatten haben immer mit zwei Gegnern zu kämpfen: mit den Beruhigern, die, oft aus wirtschaftlichen oder politischen Motiven, die Risiken leugnen oder verharmlosen. Und mit den Protagonisten einer diffusen Angst, die nur das Risiko sehen und dann gern seine komplette Abschaffung fordern. Die Risikodebatte dagegen ist die Anwältin der kritischen Vernunft. Im Menschen wie im noch so fein gebauten Menschenwerk lebt der Fehler. Man muss diese Fehler bekämpfen - im Bewusstsein dass eine fehlerlose Welt keine menschliche Welt mehr wäre.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: