Süddeutsche Zeitung

Laser:Die Augen der Maschine

Lesezeit: 5 min

Selbstfahrende Autos sollen ihn bekommen, manche iPads haben ihn schon: einen Laser, mit dem Computer die Umgebung erfassen können.

Von Hans von der Hagen, München

Dass Maschinen ihren ganz eigenen Blick auf die Welt haben, ahnte man ja immer schon. Doch in München gibt es eine Firma, die kann das auch sichtbar machen. Sie heißt Blickfeld und arbeitet an einer Technologie, die in der Zukunft für viele Menschen vielleicht mal eine Selbstverständlichkeit sein wird. Installiert ist sie in einem weißen VW-Golf, der der Firma als Versuchsfahrzeug dient. Genau genommen hat es auf dem Dach nur ein kleines schwarzes Kästchen mit einer Linse, kaum größer als eine Zigarettenschachtel. Im Fond hängen zwei große Bildschirme, und auf dem Vordersitz bastelt an diesem Septembertag Blickfeld-Gründer Florian Petit am einem Rechner herum, um ihn zu starten. Der Rechner wird dafür sorgen, dass das, was das schwarze Kästchen auf dem Dach sieht, hinten auf die Bildschirme kommt.

Kaum ist die Technik bereit, erscheinen auf den Monitoren Tausende farbige Pünktchen. Für jeden dieser Punkte wurde ein Laserimpuls 150 000 Mal pro Sekunde aus der Box auf dem Dach gefeuert und einen Sekundenbruchteil später wieder eingefangen, wenn er an einem Menschen, der Straße oder an einem Auto reflektierte. Sehen kann man die Impulse nicht - sie liegen im Infrarotbereich, doch das Ergebnis setzt sich schemenhaft, ähnlich wie bei einem Ultraschallbild einer Arztpraxis, auf dem Bildschirm zusammen. Optisch ist das nicht sonderlich aufschlussreich, es soll ja auch nur dokumentieren, was die Maschine sieht. Der Rechner kann dafür umso mehr damit anfangen: Bei jedem dieser Punkte weiß er, wie weit entfernt er ist und wie schnell er sich womöglich bewegt. Die Technik heißt Lidar, light detection and ranging, und funktioniert wie ein Radar - nur eben mit Licht und nicht mit Radiowellen. Im Fall von Blickfeld reicht sie bis zu 250 Meter weit.

Sehen, was sonst nicht zu sehen ist

Etabliert ist Lidar schon lange - dank der Technik weiß man schon seit Jahrzehnten, wie weit der Mond entfernt ist. Mit ihrer Hilfe wurden aber auch spektakuläre Entdeckungen wie die der Maya-Stätte in Guatemala gemacht. Doch gerade jetzt kann man sie besonders gut gebrauchen, wo doch Autos lernen sollen, allein zu fahren. Da hilft es natürlich, wenn die Fahrzeuge erkennen, was auf der Straße eigentlich so passiert. "Die mechanische Umsetzung des autonomen Fahrens ist nicht das größte Problem", sagt Petit, der lange im Bereich Robotik geforscht hat. Aber die Umgebung zu erfassen und daraus die richtigen Schlüsse zu ziehen - das sei für eine Maschine anspruchsvoll. In Science-Fiction-Filmen scheint das immer so einfach zu sein. Da ersetzen bei Maschinenwesen Kameras die Augen.

Doch in der Realität reichen die nicht. Warum? Petit zeigt ein Bild, auf dem die Beatles einen Zebrastreifen überqueren - aber nur scheinbar, jemand hat das mal als optische Täuschung auf eine Straße gemalt. Doch wie soll ein Rechner das verstehen? Aus Bildern zuverlässig Entfernungen zu ermitteln, ist kaum möglich. Die bunten Punkte aber auf den Bildschirmen im Golf - die helfen weiter. Der Rechner kennt die Koordinaten jedes einzelnen Punktes. Fährt das Auto durch die Straßen, erstellt er fortlaufend eine dreidimensionale Karte. Diese vergleicht der Computer mit einer eingespeicherten Variante. Weicht das eine vom anderen ab, muss das Fahrzeug gegebenenfalls reagieren.

Das hört sich alles schön an - und doch ist sich die Branche keineswegs einig, dass Fahrzeuge wirklich ein Lidar brauchen. Der US-Autohersteller Tesla zum Beispiel verzichtet auf Lidar und setzt stattdessen auf eine Kombination von Radar, Ultraschall und optischen Sensoren. Lidar sei zu teuer, behauptet Musk, obschon er nach eigenen Angaben für seine Raumfahrtaktivitäten bei Space-X extra eines entwickelt hat. Außerdem stoße die Technologie bei Nebel an ihre Grenzen. Petit sagt: "Warum sollte ich Lidar nicht verwenden, wenn ich ihn habe?" Der Radar sei nicht genau genug und die Kamera nicht in der Lage, ein dreidimensionales Bild von der Umgebung zu generieren. Beim selbstfahrenden Auto müssten immer mehrere Sensoren zusammenspielen: Kamera, Ultraschall, Radar, und eben auch Lidar. Nur so gelinge es am Ende, eine ungefährliche Tüte auf der Straße von einem heiklen Stein zu unterscheiden. Ein Auto fahre sicherer, wenn mindestens zwei von drei Sensoren zum gleichen Ergebnis kämen, sagt Petit. Aber es gebe immer Situationen, wo die Technik an ihre Grenzen stoße. Bei Starkregen zum Beispiel. Aber da führen ja auch Menschen instinktiv langsamer. Und der Preis? Heutzutage koste ein Lidar die Industrie vielleicht 1000 Euro - so viel wie ein Radar vor 15 Jahren. Der wiederum sei mittlerweile für deutlich weniger als 100 Euro zu haben. Petit weiß, wie anspruchsvoll es ist, da mit der Lidar-Technologie mitzuhalten. Entsprechend versucht Blickfeld, den Preis für Lidar in den niedrigen dreistelligen Bereich zu bringen.

In Fahrzeugen mag die Technologie noch nicht selbstverständlich sein, in portablen Geräten wie etwa dem im vergangenen Frühjahr vorgestellten iPad Pro ist sie teils schon verbaut. Spekulationen zufolge soll sie auch im iPhone 12 vorhanden sein, das demnächst vorgestellt werden dürfte. In ähnlicher Form ist sie sogar bereits vorhanden - die frontseitig in den Handys verbaute True-Depth-Kamera scannt ein Gesicht unter anderem mit Infrarotimpulsen . Das hilft bei der Entsperrung von Handys via Gesichtserkennung , soll aber auch bessere Selfies ermöglichen, weil die Konturen des Gesichts detaillierter erkannt werden.

Die Auflösung des im iPad verbauten Lidar-Scanners ist allerdings zu gering, als dass sie zur Verbesserung von Fotos beitragen könnten. Sie ist eher dazu gedacht, einen Raum zu scannen. Apple feiert die Technologie als so "fortschrittlich, dass die Nasa sie bei der nächsten Marsmission nutzen" werde. Aber ist sie auch hilfreich? Die Frage geht an Stefan Haberkorn, der in den Neunzigerjahren das Unternehmen Visualimpression in Magdeburg gründete. Er kennt sich aus mit virtuellen und erweiterte Realitäten - macht beispielsweise für Unternehmen das sichtbar, was man noch nicht sehen kann: geplante Gebäude oder Produkte etwa. Also: Was bringt so ein Lidar im Handy oder im Tablet-Computer? Haberkorn sagt, dass damit etwa der Raum, in dem man sich gerade befände, als 3-D-Modell digitalisiert werden könnte. Virtuell könnte dann umgeräumt oder Gegenstände probehalber darin platziert werden. Zum Beispiel Möbelstücke, die andernorts mithilfe eines Lidar eingescannt wurden. Andere Handys seien da noch nicht so weit - die berechneten lediglich aus Bildern dreidimensionale Objekte.

Haberkorn nennt Lidar eine mächtige Technologie, die neue Dimensionen eröffne, auch wenn sie eigentlich nur die bereits vorhandenen Möglichkeiten wie etwa die True-Depth-Kamera verbessere. Es sei eben oft so: Der Hersteller preschten mit Technik vor - und die Entwickler überlegten dann, was man damit eigentlich machen könne.

Bleibt noch die Frage: Wenn in ein paar Jahren Autos oder Handys gleichermaßen ihre Laserimpulse verschießen - ist das eine Gefahr für die Augen? Einigermaßen berühmt ist der Fall eines Fotografen, dessen Kamerasensor bei der Elektronikmesse CES Schaden nahm, nachdem dieser in den Laser eines Versuchsfahrzeugs geriet.

Blickfeld-Gründer Petit sieht darin kein Risiko. Die verwendeten Energielevel seien so gering, dass sie nicht einmal unmittelbar am Gerät den Augen schadeten. Es gebe Laservarianten, die für Kameras gefährlich sein könnten - die von Blickfeld gehöre allerdings nicht dazu.

Bestens informiert mit SZ Plus – 4 Wochen kostenlos zur Probe lesen. Jetzt bestellen unter: www.sz.de/szplus-testen

URL:
www.sz.de/1.5056226
Copyright:
Süddeutsche Zeitung Digitale Medien GmbH / Süddeutsche Zeitung GmbH
Quelle:
SZ
Jegliche Veröffentlichung und nicht-private Nutzung exklusiv über Süddeutsche Zeitung Content. Bitte senden Sie Ihre Nutzungsanfrage an syndication@sueddeutsche.de.