Autonomes Fahren:Sprechen lernen wie K.I.T.T.

Automatisiertes Fahren

Autonomes Fahren: Was noch eine Zukunftsvision ist, dürfte schon bald zur Realität werden.

(Foto: Continental)

Was die Kultserie "Knight Rider" vorgemacht hat, dürfte bald Wirklichkeit werden: In Zukunft wird der Fahrer intensiver mit seinem Auto kommunizieren. Das ist die Voraussetzung dafür, dass autonomes Fahren reibungslos funktioniert.

Von Joachim Becker

Es ist der TV-Serien-Traum der 1980er-Jahre: Ein Sportwagen mit künstlicher Intelligenz, der sich über eine Armbanduhr herbeirufen lässt. Diese Mini-Computer am Handgelenk kommen heutzutage groß in Mode. Auch das autonome Fahren, wie es "Knight Rider" vorgeführt hat, soll nach mehr als 30 Jahren Entwicklungszeit serienreif werden. "In der Stadt der Zukunft wird das Verkehrsgeschehen sehr stark von selbstfahrenden Autos bestimmt", ist Herbert Kohler überzeugt, "dabei sind gesellschaftliche Aspekte mindestens genauso wichtig wie die Sensoren im Auto", so der Leiter der Daimler-Konzernforschung. Momentan beschäftigen sich die Forscher intensiv mit der Kommunikation zwischen Mensch und maschineller Intelligenz.

Aus gutem Grund: Vor einem Jahr hat Mercedes mit der Bertha-Benz-Gedächtnisfahrt von Mannheim nach Pforzheim gezeigt, wo die Grenzen heutiger Roboterautos liegen. Die Kameras über dem Cockpit konnten zwar Zebrastreifen und querende Fußgänger erkennen. Als ein älteres Paar die Straße jedoch nicht überqueren, sondern dem Wagen Vorrang am Fußgängerüberweg einräumen wollte, fuhr die hochgerüstete S-Klasse nicht weiter. "Das ist ein ganz elementarer Punkt. Wie kann ich sicher sein, dass ein autonomer Roboter mich erkannt hat und rechtzeitig stehen bleibt? Welche Rolle können Lichtsignale, Gestensteuerung oder ganz andere Interaktionsformen in dieser Situation spielen", fragt sich Christopher Lindinger vom Ars Electronica Futurelab in Linz.

Ein rotes Leuchtband an der Fahrzeugfront wie bei K.I.T.T. in "Knight Rider" reicht jedenfalls nicht aus für die Verständigung zwischen Mensch und Maschine. Auch der Smiley auf der Front der eiförmigen Google-Testfahrzeuge ist nicht mehr als ein Gag: "Diese starre Gesichtsmaske hilft bei der Kommunikation beispielsweise an Kreuzungen gar nichts", moniert Daimler-Zukunftsforscher Alexander Mankowsky.

Roboter sind Schwarmwesen - das wird bei autonomen Autos nicht anders sein

Um den Dialog mit selbstbewegenden Maschinen zu erproben, experimentieren die Daimler-Forscher mit den sogenannten Spaxels des Ars Electronica Futurelab. Die leuchtenden Quadcopter können sich dank aufwendiger Sensorik und Steuerungselektronik autonom im Raum bewegen und unmittelbar auf menschliche Gesten reagieren.

Wer das Ballett der hochfrequent sirrenden Riesenhummeln erlebt, weiß sofort, was den Verkehr der Zukunft von der TV-Serie "Knight Rider" unterscheidet: Autonome Autos sind nie allein, sondern agieren immer vernetzt. Durch die ständige Kommunikation untereinander und mit zentralen Datenservern werden sie sich synchronisiert bewegen. Dieser Rhythmus erinnert an die Schwarmintelligenz von Vögeln oder Fischen und kann bei hoher Bewegungsenergie durchaus bedrohlich wirken. Wehe dem, der an Hitchcock's "Die Vögel" oder an Science-Fiction-Filme mit Roboterarmeen denkt.

Es wird farbig am Steuer

Die Quadcopter des Ars Electronica Futurelab reagieren mit einem Farbwechsel, sobald sie Menschen wahrnehmen. Solche Farbcodes, die wir von Ampeln, Blinkern oder Bremsleuchten kennen, könnten künftig auch an der Fahrzeugfront ankündigen, dass der Wagen bremsen wird.

Bunter geht es bald auch hinter dem Steuer zu. Immer größere Anzeigen auf der Windschutzscheibe und eine digital "erweiterte Realität" (Augmentend Reality) sollen die Interaktion von Fahrer und Fahrzeug auf die nächste Stufe heben: Eine neue Beamer-Technologie aus dem Digital-Kino erweitert das Sichtfeld für Projektionen auf 130 mal 65 Zentimeter: Genug, um ab einer Entfernung von 7,5 Meter beispielsweise dreidimensionale Navigationspfeile genau dort auf die Straße zu legen, wo die Fahrspur gewechselt werden soll. Auch die Spurverlassenswarnung wird stärker in das Verkehrsgeschehen integriert: Rote "Katzenaugen" markieren im Voraus ein mögliches Abkommen von der Fahrbahn.

Kommunizierende Autos kennen wir vom Navigationssystem, doch das sind nur leere Sprechblasen

Aber wie kommt die Augmentierung genau dahin, wo sie hingehört? "Diese Frage hat unsere Experten trotz eines Jahrzehnts Erfahrung mit dem Head-up-Display gehörig ins Schwitzen gebracht", berichtet Eelco Spoelder, Leiter des ContinentalGeschäftsbereichs Instrumentierung und Mensch-Maschine-Schnittstelle. Hoch genaue digitale Karten sind nötig, um die virtuellen Markierungen auf der realen Straße nicht hin und her tanzen zu lassen.

Eine weitere Voraussetzung für das System ist ein "elektronischer Horizont", der die aktuelle Fahrzeugposition mit einem digitalen Abbild des Verkehrsgeschehens (in der Cloud) abgleicht. Damit nicht genug: Ein Steuergerät mit Vier-Kern-Prozessor und 1,2 Gigahertz Taktfrequenz muss die Echtzeit-Karteninformationen mit den Daten der Kamera hinter der Frontscheibe und der Radarsensoren mit unterschiedlicher Reichweite unter einen Hut bringen. Schließlich wird die digital erweiterte Realität noch auf den Augpunkt des Fahrers ausgerichtet. Erst dann kann die 3D-Illusion kontaktanalog auf den Straßenverlauf vor dem Fahrzeug gelegt werden.

Das Auto, dein digitaler Begleiter

Noch befindet sich das komplexe System in einem Vorentwicklungsstadium: Während die neue Generation der Head-up-Displays schon 2016 eingeführt werden soll, hat sich der Serienstart des Augmented-Reality-Creators um ein Jahr auf 2017 nach hinten verschoben. Bis 2018 rechnet Continental trotzdem mit einer Verdreifachung des weltweiten Absatzes von Head-up-Displays auf rund fünf Millionen Stück jährlich.

Dieses Wachstum dürfte sich fortsetzen, denn automatisiertes Fahren ist ohne die animierte Wirklichkeit kaum denkbar. Sobald der Fahrer die Steuerung abgegeben hat, wird er zum Kontrolleur seines Wagens, der jederzeit wissen muss, welche Objekte und Fahrbahnmarkierungen sein Auto "sieht". Wenn eine Phase des automatisierten Fahrens zu Ende geht, kann das augmentierte Head-up-Display dem Fahrer auch mitteilen, was ihm sein Fahrzeug als nächstes "empfiehlt". "Schon an solchen Formulierungen merkt man, worum es hier geht", sagt Guido Meier-Arendt, "das Fahrzeug wandelt sich zu einem Coach und digitalem Begleiter, der mit dem Fahrer in Interaktion tritt", so der leitende Continental-Experte für die Mensch-Maschine-Schnittstelle.

Wenn es nach dem Knight Rider-Drehbuch ginge, wäre die Entwicklung damit noch nicht am Ende. K.I.T.T., der dandyhafte Alleskönner auf vier Rädern, bekommt in späteren Folgen auch einen Chip für Gefühle. Das macht die Verständigung zwischen Mensch und Maschine zwar nicht unbedingt einfacher. Aber ein anregender Dialog hält den Fahrer unterwegs zumindest wach. Für alle Fälle.

Zur SZ-Startseite

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: