Erst durch die Sensorfusion der Daten von Kamera-, Radar- und Lidar-Daten gelingt zusammen mit Daten aus der Cloud eine adäquate Umfelderfassung für die höheren Stufen der Fahrzeug-Automatisierung. Das war zumindest bisher die gängige Meinung, doch mit der zunehmenden Marktreife der hochauflösenden Radarsysteme ergibt sich eine neue Situation, die längst nicht immer einen Lidar-Sensor erforderlich macht. Diese als Imaging Radar, 4D-Radar oder Full-Range-Radar bezeichneten Systeme liefern ein ziemlich detailliertes räumliches Abbild des Umfelds. Im Gegensatz zu optischen Sensoren (Kamera, Lidar) arbeiten Radar-Sensoren in der Regel auch bei ungünstigen Licht- und Wetterverhältnissen wie Gegenlicht, Regen, Dunkelheit oder Nebel unverändert gut.
Lidar: Was es ist, wie es funktioniert und was es kann
Lidar-Technologie hat in den letzten Jahren an Popularität gewonnen, was unter anderem an den vielen Einsatzmöglichkeiten liegt. In unserer Übersicht werfen wir einen Blick auf die Technologie, ihre Funktionsweise und Anwendungen.
Die derzeit massenhaft verbauten Standard-Radarsensoren bilden – unabhängig vom Frequenzbereich – neben Geschwindigkeit und Entfernung den Horizontalwinkel (Azimuth) und damit die Breite eines Gegenstandes ab. Über die Höhe (Elevation) sind je nach Technologie nur grobe Abschätzungen möglich. Mit dem Imaging Radar kommt jetzt auch die Elevation und damit eine zusätzliche Dimension hinzu.
Bisher haben nur Magna und ZF in der Öffentlichkeit über ihre Imaging-Radar-Systeme berichtet, wobei ZF bereits konkrete Aufträge in den Büchern hat, denn ab 2022 wird ZF sein 4D-Full-Range-Radar für die Elektro-SUVs der R-Serie von SAIC liefern.
Diese bildgebenden Radarsysteme ermöglichen es, Objekte zu erkennen, zu separieren und zu klassifizieren – im Prinzip genau so, wie es auch mit Kameradaten (hohe Auflösung) und Lidardaten (niedrigere Auflösung) möglich ist. Auf der Basis entsprechend vieler Radar-Inputs ist dann auch eine Auswertung der Signale mit Methoden der Bildverarbeitung möglich. Während bei Kameradaten von Pixeln die Rede ist, geht es bei Radardaten um die Kanäle. Mittlerweile arbeitet ein Imaging Radar mit über 100 Kanälen, aber die Anzahl der Kanäle dürfte in Zukunft noch signifikant steigen.
Autor
Alfred Vollmer ist Chefredakteur der AUTOMOBIL-ELEKTRONIK.
Mehr zur Themenwoche autonomes Fahren
Weitere Hintergründe, Analysen und Wissenswertes zum Thema autonomes Fahren lesen Sie diese Woche auch bei Automotive IT. Die Redaktion fokussiert sich in ihren Beiträgen unter anderem auf die Rechtslage, den Stand der Infrastruktur und Cybersecurity.