Bild 1: Icon Radar erkennt sowohl statische als auch bewegte Objekte. (Bild: Magna)

Bild 1: Icon Radar erkennt sowohl statische als auch bewegte Objekte. (Bild: Magna)

Erst durch die Sensorfusion der Daten von Kamera-, Radar- und Lidar-Daten gelingt zusammen mit Daten aus der Cloud eine adäquate Umfelderfassung für die höheren Stufen der Fahrzeug-Automatisierung. Das war zumindest bisher die gängige Meinung, doch mit der zunehmenden Marktreife der hochauflösenden Radarsysteme ergibt sich eine neue Situation, die längst nicht immer einen Lidar-Sensor erforderlich macht. Diese als Imaging Radar, 4D-Radar oder Full-Range-Radar bezeichneten Systeme liefern ein ziemlich detailliertes räumliches Abbild des Umfelds. Im Gegensatz zu optischen Sensoren (Kamera, Lidar) arbeiten Radar-Sensoren in der Regel auch bei ungünstigen Licht- und Wetterverhältnissen wie Gegenlicht, Regen, Dunkelheit oder Nebel unverändert gut.

Bild 2: Das Full-Range-Radar passt an die üblichen Einbauorte. (Bild: ZF)
Bild 2: Das Full-Range-Radar passt an die üblichen Einbauorte. (Bild: ZF)

Die derzeit massenhaft verbauten Standard-Radarsensoren bilden – unabhängig vom Frequenzbereich – neben Geschwindigkeit und Entfernung den Horizontalwinkel (Azimuth) und damit die Breite eines Gegenstandes ab. Über die Höhe (Elevation) sind je nach Technologie nur grobe Abschätzungen möglich. Mit dem Imaging Radar kommt jetzt auch die Elevation und damit eine zusätzliche Dimension hinzu.

Bisher haben nur Magna und ZF in der Öffentlichkeit über ihre Imaging-Radar-Systeme berichtet, wobei ZF bereits konkrete Aufträge in den Büchern hat, denn ab 2022 wird ZF sein 4D-Full-Range-Radar für die Elektro-SUVs der R-Serie von SAIC liefern.

Bild 3: Die Technologie hinter Icon Radar wird zu den Augen des autonom fahrenden Fahrzeugs werden. (Bild: Magna)
Bild 3: Die Technologie hinter Icon Radar wird zu den Augen des autonom fahrenden Fahrzeugs werden. (Bild: Magna)

Diese bildgebenden Radarsysteme ermöglichen es, Objekte zu erkennen, zu separieren und zu klassifizieren – im Prinzip genau so, wie es auch mit Kameradaten (hohe Auflösung) und Lidardaten (niedrigere Auflösung) möglich ist. Auf der Basis entsprechend vieler Radar-Inputs ist dann auch eine Auswertung der Signale mit Methoden der Bildverarbeitung möglich. Während bei Kameradaten von Pixeln die Rede ist, geht es bei Radardaten um die Kanäle. Mittlerweile arbeitet ein Imaging Radar mit über 100 Kanälen, aber die Anzahl der Kanäle dürfte in Zukunft noch signifikant steigen.

Bild 4: Mit 192 Kanälen bietet das 4D-Full-Range-Radar von ZF eine 16-mal höhere Auflösung als ein branchenübliches Fahrzeugradar (Bild: ZF)
Bild 4: Mit 192 Kanälen bietet das 4D-Full-Range-Radar von ZF eine 16-mal höhere Auflösung als ein branchenübliches Fahrzeugradar (Bild: ZF)

Autor

Alfred Vollmer ist Chefredakteur der AUTOMOBIL-ELEKTRONIK.

Mehr zur Themenwoche autonomes Fahren

Themenwoche autonomes fahren

Weitere Hintergründe, Analysen und Wissenswertes zum Thema autonomes Fahren lesen Sie diese Woche auch bei Automotive IT. Die Redaktion fokussiert sich in ihren Beiträgen unter anderem auf die Rechtslage, den Stand der Infrastruktur und Cybersecurity.

Kostenlose Registrierung

Bleiben Sie stets zu allen wichtigen Themen und Trends informiert.
Das Passwort muss mindestens acht Zeichen lang sein.
*

Ich habe die AGB, die Hinweise zum Widerrufsrecht und zum Datenschutz gelesen und akzeptiere diese.

*) Pflichtfeld

Sie sind bereits registriert?

Unternehmen

Magna Telemotive

Breitwiesen
73347 Mühlhausen im Täle
Germany

ZF Friedrichshafen AG

Löwentalerstraße 20
88046 Friedrichshafen
Germany