Autonomes Fahren Menschen machen Fehler - Maschinen auch

Uber setzt für seine Tests selbstfahrende Autos der Marke Volvo ein - hier auf einer Kreuzung in Scottsdale.

(Foto: REUTERS; Bearbeitung SZ)

Es mag nach dem tödlichen Unfall mit einem selbstfahrenden Auto zynisch klingen, aber die Tests in der realen Welt müssen weitergehen. Nur so können Roboterautos lernen, sicherer als Menschen zu fahren.

Kommentar von Joachim Becker

Jährlich sterben mehr als 1,2 Millionen Menschen im Straßenverkehr. Trotz der Vision vom unfallfreien Fahren kommen auch in Deutschland jedes Jahr rund 3300 Personen durch Fahrzeuge ums Leben. In den USA sind Autounfälle die häufigste Todesursache bei jungen Menschen. Gefährlicher als Krankheiten, Krieg und Terror. Jetzt ist erstmals eine Frau von einem autonomen Auto überfahren worden. Das ist schrecklich, musste aber so kommen. Denn Menschen sind nicht perfekt, und Maschinen sind es auch nicht.

Wo die Grenzen der Technik liegen, hat vor zwei Jahren bereits der tödliche Unfall mit einem Tesla gezeigt. Der Autopilot konnte einen querenden Laster nicht erkennen. Der Tesla fuhr allerdings nicht völlig selbständig. Es handelt sich rechtlich bloß um ein Assistenzsystem, der Fahrer bleibt dabei in der Verantwortung. Bei dem Unfall in Tempe, Arizona, war der Wagen tatsächlich selbständig unterwegs, allerdings saß ein Sicherheitsfahrer hinter dem Steuer. Eben weil diese vollautonomen Systeme noch nicht serienreif sind.

Frau stirbt bei Unfall mit autonomem Auto von Uber

Zum ersten Mal kommt bei einem Unfall in den USA mit einem Roboterauto eine Fußgängerin ums Leben. Der Fahrdienstleister Uber stellt vorerst alle Testfahrten ein. Von Kathrin Werner mehr ...

Willkommen im Zeitalter der autonomen Roboter. Egal, ob sie fliegen, fahren oder im Haushalt herumwirbeln: Intelligente Maschinen haben ihre gut gesicherten Käfige in den Fabrikhallen verlassen und erobern nun alle Bereiche des mobilen Lebens. Das maschinelle Lernen und riesige Rechenleistungen auf kleinen Chips machen es möglich. Dadurch können Roboter in Echtzeit auf wechselnde Situationen reagieren. Zumindest theoretisch. Denn praktisch geht es darum, den künstlichen Systemen menschliche Erfahrung beizubringen. Also müssen auch selbstfahrende Autos in eine Art Fahrschule.

An diesem Punkt befinden wir uns gerade. Autos werden zu rollenden Rechenzentren, die dank neuer Sensoren ihre Umwelt zu 360 Grad überwachen können. Aber sie müssen diese Umwelt auch richtig verstehen. Zum Beispiel, wenn plötzlich ein Ball auf die Straße rollt. Oder ein Lieferwagen mit Warnblinklicht und offenen Türen am Straßenrand steht. Oder eine Passantin plötzlich aus dem Schatten auf die Straße tritt, wie vor dem tödlichen Unfall. Menschen schätzen diese Situationen mit großer Wahrscheinlichkeit richtig ein. Maschinen müssen das erst aufwendig lernen. Dabei versuchen sie schon heute, die nächsten Bewegungen aller Fahrzeuge und Menschen ringsherum vorherzusagen. Genau wie wir Menschen. Doch manchmal kommt es anders, als man selbst oder die Maschine denkt.

Experten haben auf ein solches Unglück gewartet

Es muss klar sein, worum es geht: Für moderne Gesellschaften ist die hohe Zahl der Verkehrsopfer inakzeptabel. Maschinen werden nie müde, und reagieren schneller als jeder Mensch. Deshalb muss die technische Entwicklung konsequent weitergehen. Autos agieren längst automatisiert, zum Beispiel mit Antiblockiersystemen, dem Schleuderschutz ESP oder Abstandsregeltempomaten. Solche Systeme folgen einer fest einprogrammierten Logik. Das macht sie sicher, beschränkt aber auch ihre Reaktionsmöglichkeiten. Für eine Maschine ist der Straßenverkehr oft genug nicht regelbasiert, sondern chaotisch. Und auf jeden Fall vielfältiger als jeder Programm-Code. Deshalb müssen Roboter noch selbständiger werden. Auch wenn sie dadurch auf viele Menschen befremdlich wirken.

Vieles ist noch unklar rund um die selbständigen Maschinen. Die neuen Mitspieler im Straßenverkehr brauchen genaue Regeln, ein definiertes Zulassungsverfahren und vor allem eine Klärung, wer bei Unfällen haftet. Weder die Behörden in den USA noch in Deutschland wissen momentan genau, wie eine Zertifizierung im Detail funktionieren soll. Deshalb sind bisher noch Sicherheitsfahrer mit den autonomen Autos unterwegs.

Dass auch der gut geschulte Fahrer die Passantin übersehen hat, zeigt, dass der Unfall vermutlich kaum vermeidbar war. Das wird nun alles von den Straßenbehörden genauestens überprüft. Experten sind sich einig: Ohne verbindliche Sicherheitsstandards und einheitliche Zulassungsregeln wird es in Zukunft nicht gehen. Das ist das hoffentlich positive Ergebnis einer individuellen Tragödie.

Folgenschwere Tage für die Tech-Branche

Ubers Selbstfahr-Crash und Facebooks Daten-Abfluss befeuern die Diskussion um einen Vertrauensverlust in die Technologiekonzerne. In den USA müssen sie künftig mit mehr Regulierung rechnen. Von Johannes Kuhn mehr...