Autonomes Fahren:Mehr Hirn für den autonomen Chauffeur

Lesezeit: 4 Min.

Für das autonome Fahren müssen Autos enorme Rechenleistungen vollbringen. Chiphersteller Nvidia will die dafür nötige Hardware liefern. (Foto: Nvidia)

Das Auto wird Teil eines lernenden Systems: Supercomputer und eine neue Elektronik-Architektur werden das Autofahren schon bald komplett verändern.

Analyse von Joachim Becker

Wer sich nächtelang in hochauflösenden virtuellen Welten herumtreibt, weiß, wie viel Rechenleistung neue Computerspiele benötigen. Ihre lebensechte Grafik mit komplexer Beleuchtung ist ein Treiber für die explosionsartige Leistungssteigerung von Mikroprozessoren: Der weltweit schnellste Supercomputer benötigte vor 15 Jahren 150 Quadratmeter Fläche und 500 000 Watt elektrischer Leistung. Heute begnügt sich ein solches Teraflop-System mit zehn Watt und passt auf einen Fingernagel.

"Wir sehen einer Zukunft mit autonom agierenden und lernfähigen Autos, Robotern und Drohnen entgegen, die über eine Intelligenz verfügen, die schwierig vorstellbar ist", sagt Jen-Hsun Huang, CEO und Mitbegründer von Nvidia. Der kalifornische Chip-Hersteller ist anspruchsvollen Computerspielern ein Begriff. Mittlerweile sind Teraflop-Chips wie der Nvidia Tegra X1 so rüttelfest, dass sie die Tortur eines Autolebens überstehen. Auf der IAA im vergangenen September haben Elektrobit, Infineon und Nvidia eine gemeinsame Plattform für die Entwicklung von Fahrrobotern vorgestellt. Jetzt werden die Leiterplatten im Din-A4-Format an 70 Automobilhersteller, Zulieferer und Entwicklungspartner weltweit ausgeliefert.

Autopilot im Tesla Model S
:Einfach mal loslassen

Falls demnächst neben Ihnen ein Autofahrer freihändig vorbeirast, sitzt er wohl in einem Tesla. Der Autopilot des Model S funktioniert erstaunlich gut - bis ich die Autobahn verlasse.

Von Felix Reek

Eine neue Elektronik-Architektur ist nötig

Ist das die Stunde null des autonomen Fahrens? Der Startschuss zu einem Rennen, bei dem alle Teilnehmer innerhalb und auch außerhalb der Autobranche dieselben Chancen haben? Audis Leiter Elektrik-/Elektronik-Entwicklung spricht von einer Revolution: "An so einer Chip-Entwicklung sitzen 3000 bis 4000 Entwickler, die kostet ein paar Milliarden Euro", so Ricky Hudi, "allein könnten wir uns das gar nicht leisten."

Auf dem Weg zum hochautomatisierten Fahren ist neben den kleinen Supercomputern aber auch eine neue Elektronik-Architektur nötig. Das bisherige Bordnetz mit 50 und mehr Steuergeräten ist im wahrsten Sinne viel zu zerstreut, um in Echtzeit schalten und walten zu können. Außerdem stehen die Rechenzwerge bei der Vernetzung auf der Leitung: Schafft der klassische CAN-Bus noch eine Datenübertragungsrate von einem Megabit pro Sekunde, wird mit Ethernet künftig ein Gigabit pro Sekunde möglich - also tausendmal so viel.

Selbstfahrende Autos
:Die Angst der Autobauer vor dem Google-Ei

Firmen wie Google und Apple treiben den Wandel in der Autobranche voran und die deutschen Hersteller vor sich her. Cheflobbyist Wissmann warnt: Nur Fahrzeuge zu bauen, reicht nicht mehr aus.

Von Markus Balser und Thomas Fromm

Superhirn unter dem Beifahrersitz

Das Tempo und eine hohe Bandbreite werden gebraucht, um eine Flut von Sensordaten auszuwerten. Als ideale Lösung bietet sich ein zentrales Steuergerät für die Fahrerassistenzsysteme (zFAS) an, wie es Audi nächstes Jahr im neuen A 8 erstmals in Serie bringen wird. Doch auf Sicht ist dessen Rechenleistung zu gering.

Im Jahr 2013 füllte die Audi-Elektronik noch den gesamten Kofferraum. "Auf der CES 2016 haben wir nun das fertige zFAS gezeigt, das inzwischen sogar kleiner ist als ein Tablet-Computer", so Ricky Hudi. Dieses Superhirn unter dem Beifahrersitz errechnet ein vollständiges Modell der Fahrzeugumgebung, das dann allen Assistenzsystemen zur Verfügung steht. Schon bald soll sich ein entsprechend ausgerüsteter Wagen damit alleine auf der Autobahn zurechtfinden. Richtig schwierig wird es aber auf Straßen mit Gegenverkehr - und erst recht im Dickicht der Städte.

Für das autonome Fahren in urbanen Ballungsräumen ist die zFAS-Rechenleistung längst nicht ausreichend. Volvo wird bei einem Flottenversuch 2017 deshalb eine Computer-Plattform mit acht Teraflops einsetzen - das entspricht der Leistung von 150 Apple MacBook Pros. Mehrere Kameras, Radarsensoren und hochauflösende Lidar-Scanner wie bei den Google-Testfahrzeugen sollen beim Drive-Me-Projekt jedes Hindernis und jede Bewegung rund um das Fahrzeug automatisch erkennen. "Unsere Vision ist, dass ab dem Jahr 2020 niemand mehr von einem neuen Volvo getötet oder ernsthaft verletzt wird", sagt Marcus Rothoff, Direktor des Entwicklungsprogramms für autonome Autos.

100 Jahre BMW
:Freude am Sparen

BMWs neue Studie "Vision Next 100" zeigt: Das Design muss künftig beim Energiesparen helfen. Sportlich sollen die Autos der Marke aber trotzdem bleiben.

Von Joachim Becker

Die ersten 100 Volvo-Prototypen sollen von Familien und Pendlern unter Alltagsbedingungen auf öffentlichen Straßen in Göteborg genutzt werden. "Nvidias Hochleistungs-Plattform ist ein wichtiger Fortschritt in Richtung unserer Vision und eignet sich perfekt für unser Drive-Me-Projekt", so Rothoff.

Googles Flotte kämpft mit dem Fahrradverkehr

Bei BMW hält sich die Begeisterung über die neuen Supercomputer dagegen in Grenzen. Viel wichtiger als die prinzipiell austauschbare Hardware sei die Software - also die Qualität des Umfeldmodells. Die enorme Komplexität des Stadtverkehrs bringt auch Google immer wieder an die Grenzen. Trotz des extrem teuren Lidar-Scanners auf dem Dach und eines Kofferraums voller Computer kämpft die Testflotte von mehr als 100 autonomen Prototypen mit dem oft chaotischen Fahrradverkehr. Extrem schwierig ist auch die Vorhersage, ob Fußgänger die Straße queren - oder ob sie in Sekundenbruchteilen stoppen oder die Richtung ändern werden.

Praxistest BMW 7er
:BMW 7er: Nicht immer tut er das, was er soll

Sprach- und Gestensteuerung sollen den Alltag im Auto komfortabler und sicherer machen. Wie gut funktionieren die neuen Technologien im BMW 7er wirklich?

Test von Helmut Martin-Jung

Das ist ein Grund, warum BMW allein in diesem Jahr 500 IT-Experten mit dem Schwerpunkt auf künstlicher Intelligenz einstellen will. "Wir entwickeln uns vom Mechanical Engineering zur Tech Company", sagt BMW-Entwicklungsvorstand Klaus Fröhlich, um gleich wieder einzuschränken: "Wir glauben, dass es in diesem Jahrzehnt noch kein Serienangebot eines autonomen Fahrzeugs geben wird, das dem Premiumanspruch unserer Kunden genügt. Wir rechnen höchstens mit Pilotversuchen in einem begrenzten Umfeld. Zum Beispiel auf den Stadtautobahnen Tokios im Rahmen der Olympiade 2020."

Entsprechend funktionieren auch die ersten Autopiloten im neuen BMW 7er, der neuen Mercedes E-Klasse und dem Tesla Model S am besten auf der streng reglementierten Autobahn. Wenn die Luxuslimousinen die Fahrbahnbegrenzungen und möglichst noch ein Fahrzeug voraus erkannt haben, kann Kollege Computer die Lenkarbeit übernehmen.

Doch es kommt, was kommen muss: Wenn das System nicht weiter weiß, verabschiedet es sich mit einer Warnmeldung: Game over, der Fahrer bleibt die letzte Entscheidungsinstanz. Daher ist allen Beteiligten mittlerweile klar, dass starre regelbasierte Systeme nicht alle Herausforderungen des automatisierten Fahrens meistern können. Erst durch den Schritt zur Eigenständigkeit eines lernenden Systems kann die Maschine kritische Situationen antizipieren und in Echtzeit Entscheidungen treffen.

"Der Vorteil bei Machine Learning ist, dass nicht jede Reaktion des Fahrzeugs in einer bestimmten Situation regelbasiert programmiert werden muss. Das würde zu einer kaum beherrschbaren Komplexität führen", erklärt Ricky Hudi. Was nicht als Muster eingespeichert ist - zum Beispiel Tausende möglicher Umrisse eines Fußgängers -, muss mit hohem Rechenaufwand live analysiert werden. Für eine Maschine, die keinen Augenkontakt aufnehmen kann, ist das Verhalten solcher bewegter Datenwolken kaum auszumachen. Noch dazu, wenn die menschliche Silhouette durch parkende Autos halb verdeckt wird.

Autonomes Fahren
:Googles selbstfahrendes Auto rammt Linienbus

Es ist nicht das erste Mal, dass ein Google Car in einen Unfall verwickelt ist. Doch dieser Crash ist eine Premiere, weil die Technik hakt.

Sinnvolle Aufteilung der Rechenleistung

Hilfestellung können vorausfahrende Autos liefern, die ihre Sensordaten an einen Großrechner geschickt haben: Ein funktionierendes 5G-Funknetz vorausgesetzt, kann dieses Backend eine schier unbegrenzte Rechenleistung bereitstellen. Die einzelnen Autos sind dann nur noch mobile Endgeräte und Sensoren der übergreifenden Intelligenz. "Dabei müssen wir eine sinnvolle Aufteilung finden, was an Bord und was in der Cloud stattfindet: Im Fahrzeug wird eine Vorverarbeitung stattfinden, so dass nicht der komplette Datenstrom über die Funkschnittstelle übertragen werden muss", erläutert Ricky Hudi, "das Ganze nenne ich "Car OS" - ein intelligentes Operating System von der Cloud bis zu den Domänenrechnern im Auto."

Erst wenn ein Hersteller alle Teilschritte dieser End-to-End-Lösung von den Tiefen der Autoelektronik bis zu den Echtzeitlösungen in der Cloud beherrscht, kann aus einem übervorsichtigen autonom ruckelnden Taxi ein wirklich intelligenter eingebauter Chauffeur werden. "Wir wollen auch beim autonomen Fahren die Führungsposition übernehmen", sagt Klaus Fröhlich selbstbewusst. Nur wenige Automarken werden die Ressourcen und finanziellen Mittel haben, um bei diesem Rennen in die Zukunft vorne mitzufahren.

© SZ vom 26.03.2016 - Rechte am Artikel können Sie hier erwerben.
Zur SZ-Startseite

Mittelklasselimousine im Fahrbericht
:In der neue E-Klasse steckt Hightech, die kein Vertrauen schafft

Der Mercedes ist ebenso agil wie komfortabel und lässt sich einfach bedienen. Außerdem kann er automatisch lenken - und da beginnt das Problem.

Test von Georg Kacher

Lesen Sie mehr zum Thema

Jetzt entdecken

Gutscheine: