Autos ohne Lenkrad und Pedale Das größte Hindernis für Roboterautos ist die Bürokratie

Hallo Robo-Taxi: Künftig sollen fahrerlose Autos auf Knopfdruck beim Kunden vorfahren.

(Foto: Bosch/Daimler AG)

In den USA und China beginnen große Flottentests mit Robotertaxis. Dabei wird deutlich: Die letzten Meter zum vollautonomen Fahren sind die schwierigsten.

Von Joachim Becker

Die Welt ist voller Wunder, zumindest aus Sicht einer Kamera. Da wird der Zirkuselefant zum Fußgänger und der Steinlöwe zum braven Haustier. Jedes Kind wüsste es besser als die Bilderkennung. Was nicht im voraus etikettiert ist, muss die künstliche Intelligenz erraten. Deshalb erscheinen rosa Elefanten auf dem Bildschirm und die Statuen vor der Einfahrt leuchten rot. Die Signalfarbe warnt vor Tieren. Da die Löwen schön Sitz machen, fährt das autonome Auto weiter durch seine schwer verständliche Welt.

"Wir müssen uns Stadt für Stadt erobern", erläutert Uwe Franke. Der Leiter Bildsemantik bei Daimler trainiert sein Kamerasystem gezielt auf das jeweilige Einsatzgebiet. Ob exotische Verkehrsschilder, verwickelte Kreuzungen oder Hydranten, die wie Kinder aussehen: "Was bei Testfahrten nicht richtig erkannt wird, klassifizieren wir im Nachgang. Dadurch verbessern wir die Erkennungsleistung um einige Prozente." Anders als beim maschinellen Lernen im Internet kann jeder Fehler gravierende Folgen haben. Ein tödlicher Tesla-Unfall hat die Weltöffentlichkeit vor zwei Jahren aufgerüttelt: Per Autopilot war ein Model S in einen querenden Lastwagen gerast. Die Kamera hielt den weißen Lkw für eine Brücke, unter der man durchfahren kann. Tesla konnte die Schuld auf den Fahrer abwälzen, weil es sich um ein Assistenzsystem handelt (Level zwei). Bei einem autonomen System müssten die Autohersteller jedoch haften. Deshalb nutzen sie viele verschiedene Sensoren.

Deutsche fahren selbst, Chinesen lassen fahren

Eine Studie zeigt: Während hierzulande Skepsis dem autonomen Fahren gegenüber herrscht, sind die Asiaten viel aufgeschlossener. Kein Wunder, dass Audi, BMW und Co. in China besonders aktiv sind. Von Thomas Fromm mehr ...

Lange waren rollende Roboter eine Disziplin für Forscher und Verrückte. Daimler und Bosch hatten vor 20 Jahren zwar das Radar ins Auto gebracht. Solche Abstandstempomaten erfassen aber nur einen kleinen Ausschnitt der Wirklichkeit. Google/Waymo setzte vor rund zehn Jahren erstmals Lidar-Scanner ein, um das Umfeld zu erfassen. Anders als damalige Radare können die Laserstrahlen Fußgänger zuverlässig erkennen. Außerdem unterfüttern sie Kamerabilder, die eigentlich nur Winkel beschreiben, mit dreidimensionalen Messdaten. Trotzdem haben die Autohersteller zugeschaut, wie Waymo Millionen Testkilometer mit den teuren Supersensoren abspulte. 2013 fuhr eine Mercedes S-Klasse selbständig von Mannheim nach Pforzheim. Das Schönwettersystem aus Radar und Stereokamera funktionierte aber nur auf Landstraßen zuverlässig.

Erst seit zwei Jahren gibt es genug Computer-Power im Auto, um die Daten in Echtzeit auszuwerten

"Mit der Kamera kann man 80 Prozent der Fälle abdecken", sagt Elmar Frickenstein, Leiter autonomes Fahren bei BMW: "Spannend wird es bei den letzten 20 Prozent. Da kommt man mit einem Sensortyp nicht weiter. Die hohe Kunst ist die Sensordatenfusion auf der Basis von Rohdaten." Mehr als 30 Kameras, Radare und Lidare tasten das Umfeld von autonomen Testwagen mittlerweile ab. Sie liefern Gigabytes an Daten, die in Echtzeit ausgewertet werden. Erst seit zwei Jahren haben automobiltaugliche Grafikkarten überhaupt die Rechenpower, um diese Informationsflut zu bewältigen.

Vier Augen sehen mehr als zwei: Nach diesem Prinzip werden vollautonome Autos mit über 30 Sensoren vollgepackt: Die Eigenschaften von Radar, Lidar, Kamera und Ultraschall ergänzen sich zu einem Umfeldmodell.

(Foto: BMW)

Anders als bei Assistenzsystemen werden die Objekte nicht von jedem Sensorchip einzeln erkannt. Stattdessen ist die Leistung von sechs der besten Hochleistungsrechner nötig, die man für Computerspiele kaufen kann, um die Rohdaten zentral zu sortieren. Neuronale Netze mit 128 Ebenen durchsuchen nicht nur die jeweils 1,3 Millionen Messpunkte von fünf Lidar-Sensoren, sondern auch die zwei Millionen Bildpunkte jeder Kamera - multipliziert mal 20 Bilder pro Sekunde. Die zweidimensionale Weltsicht von Kamera und Radar kollidiert mitunter mit dem 3-D-Verfahren des Lidars. Trotzdem soll das schwankende System verstehen, was um es herum passiert.

Ohne Sicherheitsfahrer kommen Robotertaxis im normalen Stadtverkehr noch nicht zurecht. Viel einfacher ist die Lösung für eine Schnellstraße ohne Fußgänger. VW-Konzernforscher haben seit 2013 so einen Autobahnpiloten entwickelt. 2015 konnten sie auf der Computermesse CES einen entsprechend umgebauten Audi A7 präsentieren. Ab 2020 soll das relativ einfache und erschwingliche Seriensystem auch in Deutschland selbständig von der Einfahrt bis zur Ausfahrt navigieren. Der Mensch hinter dem Steuer darf die Augen von der Straße lassen - solange nichts Außergewöhnliches passiert. Aufgeschmissen wäre so ein Level-drei-System bei sehr schlechtem Wetter oder im Chaos nach einem Unfall. Rosa Elefanten oder rote Steinlöwen sind also nur ein Teil des Problems.

Das autonome Fahren ist längst da

mehr...