Distributed Aperture Radar (DAR) liefert durch die Kombination aus einer Satelliten-Architektur und Machine Learning eine 20 mal höhere Performance als herkömmliche Radar-Systeme.

Distributed Aperture Radar (DAR) liefert durch die Kombination aus einer Satelliten-Architektur und Machine Learning eine 20 mal höhere Performance als herkömmliche Radar-Systeme. (Bild: Zendar)

Die Nachfrage nach immer leistungsfähigeren Fahrerassistenzsystemen und Technologien zum autonomen Fahren hat die Automobilindustrie dazu veranlasst, ihren Ansatz zur Implementierung von Radar grundsätzlich neu zu überdenken. Der herkömmliche hardwareorientierte Ansatz bei der Entwicklung von Radarsystemen führt nicht mehr weiter. Fahrerassistenzfunktionen über den einfachen L2 hinaus, beispielsweise ein vollautonomes System zum Fahren auf Autobahnen, verlangen eine wesentlich höhere Auflösung bei Azimut und Elevation und eine viel höhere Doppler- und Reichweitenauflösung als bei den heute üblichen automotiven Radarsystemen.

Die Hardwaremodule im Fahrzeug einfach um den Faktor 20 zu vergrößern ist aus Kosten- und Platzgründen nicht praktikabel. Daher sucht die Automobilindustrie nach einem völlig neuen Ansatz zur Entwicklung von Radarsystemen, indem sie von einem intelligenten Radar auf eine Satelliten-Radararchitektur umschwenkt.

Diese neue Satelliten-Radararchitektur nutzt die enormen Fähigkeiten zur Datenverarbeitung in der neusten Pkw-Generation. Softwaredefiniertes Radar in einer Satelliten-Radararchitektur – ein von Zendar entwickelter Ansatz – liefert die benötigte 20-fache Leistungssteigerung ohne mehr Radareinheiten als heute bereits im Fahrzeug vorhanden sind. Die Zendar-Software zur Radarverarbeitung übernimmt auch die native Objektklassifizierung, die z. B. einen Fußgänger von einem Fahrzeug oder einer Leitplanke unterscheidet.

Außerdem macht die Architektur von Zendar die Radar-Frontends einfacher, zuverlässiger und kosteneffizienter. Der Ansatz von Zendar verringert die Anzahl der Radar-ECU im Fahrzeug ganz erheblich und erleichtert so OTA-Updates. Dank dieses Ansatzes kann der OEM die Fähigkeiten der Fahrerassistenzsysteme im Fahrzeug ständig verbessern. Das ist ein großer Fortschritt gegenüber heutigen Fahrerassistenzsystemen, deren Fähigkeiten sich nach der Installation im Werk nicht mehr verändern lassen.

Der softwaredefinierte Radar-Ansatz von Zendar implementiert neue Techniken: Er kombiniert Radarsignale über Zeit und Raum, um eine höhere Auflösung in allen vier Radardimensionen (Azimut, Elevation, Reichweite und Doppler) zu erreichen. Zudem gewinnt das System durch Einsatz von Technologie zum Machine-Learning Informationen zur Objekterkennung aus Radar-Rohsignalen, die bei herkömmlichen Radarsystemen verloren gehen.

Diese neuen Techniken werden dafür sorgen, dass Radar wieder als fundamentale Bildgebungstechnologie in den neuen Fahrzeugen mit noch höherem Automatisierungsgrad in Produktion gehen werden – und zwar in der zweiten Hälfte dieses Jahrzehnts.

DAR: Neue Architektur für Automotive-Radar

Automotive-Radar ist und bleibt ein primärer Sensor für autonomes Fahren und Fahrerassistenzsysteme, denn es liefert gleichzeitig Informationen zur Entfernung und Geschwindigkeit von Objekten in einem Bereich bis 300 m. Außerdem arbeitet es im Gegensatz zu Lidar zuverlässig bei allen Wetterbedingungen, auch bei Staub oder Rauch in der Luft, und es ist kosteneffizient.

Aber heutige Radarsysteme für den Einsatz auf der Autobahn können nicht zuverlässig erkennen, ob sich ein Hindernis vor dem Fahrzeug oder in der benachbarten Fahrspur befindet. Hierzu müsste die aktuelle Azimutauflösung des Radars von 2° erheblich verbessert werden.

Außerdem liefern die heutigen Radarsensoren keine Informationen dazu, ob das Fahrzeug sicher eine Brücke oder einen Tunnel im Fahrweg passieren kann, oder ob es sich um ein Hindernis handelt. Um Hindernisse in größerer Höhe zu erkennen, benötigt das Radar in der Elevation eine etwa 10-fach höhere Auflösung.

Distributed Aperture Radar (DAR): Das sind die Schlüsselfakten

  • Die DAR-Technologie (Distributed Aperture Radar) erschließt ein Radar-Rohdatenspektrum, mit dem Machine-Learning-Systeme sich darauf trainieren lassen, Objekte wie Autos, Fahrräder, Fußgänger, Kurven und Straßenlaternen zu erkennen.
  • Die softwarebasierte DAR-Technologie erreicht eine 20-fach höhere Leistung als aktuelle Systeme – und das ohne zusätzliche Hardwarekosten oder Größe. Zudem ist die Hardware entsprechend der erforderlichen Performance skalierbar.
  • Im Gegensatz zu Lidar ist Radar kostengünstig, und es arbeitet unter allen Wetter- und Geländebedingungen
  • Das neue softwaredefinierte Radar soll sich zur Schlüsseltechnologie für die Bildgebung in den Fahrerassistenzsystemen der nächsten Generation und beim autonomen Fahren entwickeln.

Wie Distributed Aperture Radar (DAR), das Satelliten-Radar, funktioniert

Bei der Bildgebung per Radar ist die Auflösung eine Funktion der Wellenlänge und der Antennengröße. Um die Auflösung des Lidar von ±0.1° zu erreichen, könnte man theoretisch die Hardware aufwärts skalieren. Sie würde jedoch bei Auflösungen unter 2° exponentiell immer teurer, was diese Option nicht praktikabel macht. Tatsächlich liefern Versuche, die Leistung der Radar-Hardware zu erhöhen, immer weniger Verbesserungen, und jedes Upgrade erfolgt um den Preis der hohen Kosten und des Zeitaufwands für die Entwicklung und Herstellung neuer Radar-Chips. Vor diesem Hintergrund haben die Automotive-OEMs begonnen, die Radararchitektur zu überdenken und von einem „intelligenten Radar“ auf einen Ansatz mit einem „Satelliten-Radar“ umzuschwenken.

Derzeit aktuelle Radarmodule sind vollintegrierte Einheiten mit einem Prozessor, auf dem die Firmware läuft, die als Ausgabe eine Punktwolke für jedes Radar-Frontend liefert (Bild 1). Das Satelliten-Radarmodell trennt hingegen den Software-Aspekt vom HF-Aspekt. Damit besteht die Möglichkeit, ein System aus einfachen, als Standardprodukt verfügbaren Frontends aufzubauen, das ein Radar-Rohsignal an einen leistungsfähigen Zentralprozessor übergibt. Die Fähigkeiten dieses Prozessors können fortschrittliche Algorithmen zur Signalverarbeitung unterstützen, welche die Eingangssignale mehrerer synchronisierter Radar-Frontends zusammenfassen und – durch die Implementierung einer neuen DAR-Technologie (Distributed Aperture Radar) – ein Ausgangssignal erzeugen, das mehr als die Summe seiner Teile ist. Weil es sich hierbei um einen softwarebasierten Ansatz handelt, können die Fähigkeiten über OTA-Updates ständig und ohne Änderung der zugrunde liegenden HF- oder Computerhardware verbessert werden.

Bild 1: Das neue Satelliten-Radar-Modell nutzt die Vorteile der höheren Rechenleistung von Prozessorplattformen wie Qualcomm SnapDragon Ride oder Nvidia Drive. Im Gegensatz zu konventionellen Radarsystemen sind beim softwarebasierten DAR auch OTA-Updates möglich. Distributed Aperture Radar ist nicht nur flexibel und skalierbar sondern es bietet auch eine höher Auflösung und Performance.
Bild 1: Das neue Satelliten-Radar-Modell nutzt die Vorteile der höheren Rechenleistung von Prozessorplattformen wie Qualcomm SnapDragon Ride oder Nvidia Drive. Im Gegensatz zu konventionellen Radarsystemen sind beim softwarebasierten DAR auch OTA-Updates möglich. Distributed Aperture Radar ist nicht nur flexibel und skalierbar sondern es bietet auch eine höher Auflösung und Performance. (Bild: Zendar)

Ein kohärentes Ausgangssignal aus mehreren diskreten Radareinheiten

Die Grundprinzipien der DAR-Technologie sind aus der Radioastronomie abgeleitet. Die Wissenschaftler dort haben herausgefunden, dass sie tief in den Weltraum blicken können, indem sie die Informationen mehrerer Teleskope auf gegenüberliegenden Seiten der Erde kombinieren und so eine Antenne von der Größe der Erde schaffen.

Zendar hat diese Entdeckung auf das automotive Radar übertragen. Das Zendar DAR-System hat durch Zusammenführen räumlich getrennter Radareinheiten eine Vervierfachung der Auflösung gezeigt – und eine fünfmal höhere Auflösung durch Kombination zeitlich gestaffelter Radarsignale, die von stationären Objekten reflektiert wurden (Bild 2).

Bild 2: Die DAR-Technologie nutzt mehr Rechenleistung, aber dieselben Radar-Rohsignale, die von heutigen konventionellen Radarmodulen geliefert werden.
Bild 2: Die DAR-Technologie nutzt mehr Rechenleistung, aber dieselben Radar-Rohsignale, die von heutigen konventionellen Radarmodulen geliefert werden. (Bild: Zendar)

Was sind die Herausforderung DAR-Technologie?

Während das Prinzip der DAR-Technologie von den Fachleuten auf dem Gebiet der Radioastronomie gut verstanden wird, stößt seine Anwendung im automotiven Bereich auf verschiedene Schwierigkeiten:

  • Synchronisierung der Sensoren
  • Unterdrückung des nicht korrelierten Phasenrauschens
  • Trennen monostatischer und multistatischer Empfangssignale
  • Sensor-zu-Sensor-Kalibrierung (extrinsisch)

Hier zeigt die Satelliten-Radararchitektur ihren Wert. Jedes dieser Probleme lässt sich mithilfe fortschrittlicher Software-Algorithmen leicht lösen. Bei der Satelliten-Radararchitektur nutzt die DAR-Technologie die höhere Rechenleistung in Fahrzeugen mit einem hohen Level an assistiertem oder autonomen Fahren.

Maschinenlernen zur Objekterkennung

Die 20-fach höhere Auflösung der DAR-Technologie liefert eine sehr viel detailliertere Punktwolke als jedes bisher realisierte automotive Radarsystem (Bild 3).

Bild 3: DAR liefert mit einfachen Radar-Frontends Punktwolken mit hoher Auflösung und Dichte.
Bild 3: DAR liefert mit einfachen Radar-Frontends Punktwolken mit hoher Auflösung und Dichte. (Bild: Zendar)

Vorteile der Satelliten-Architektur beim DAR

Ein System zum autonomen Fahren muss aber nicht nur wissen, wo sich Gegenstände befinden und wie schnell sie sich bewegen. Es muss auch wissen, worum es sich handelt, damit es sich entsprechend verhalten kann. Ein Laternenpfahl ist ein anderes Sicherheitsrisiko als ein Fußgänger, der neben der Straße steht. Auch hier nutzt die komplexe Software der Satelliten-Radararchitektur das hochaufgelöste Radareingangssignal für eine intelligente Echtzeit-Bildgebung.

Interessanterweise sind alle Methoden zur Verarbeitung von Radarsignalen in heutigen Fahrzeugen nur darauf ausgelegt worden, eine wenig detaillierte Punktewolke auszuwerten, um sie auf sehr kleinen Prozessoren mit wenig Speicher ausführen zu können. Diese Algorithmen suchen nur nach sehr auffälligen Energiesignaturen im Radar-Rohsignal, um einfache Informationen dazu zu gewinnen, ob sich im Bereich ein Objekt befindet oder nicht.

Tatsächlich enthält dieses Rohsignal sehr viel mehr Informationen zur Art des erfassten Objekts. So reflektiert beispielsweise ein Fußgänger weniger Energie als ein Fahrzeug, und die Bewegungen von Händen und Beinen haben eine charakteristische Dopplersignatur. Ein Fahrzeug reflektiert eine große Energiemenge, da es aus Metall besteht und eine große Fläche aufweist, und seine Bewegung erzeugt eine andere Dopplersignatur als die eines Fußgängers.

Diese Signaturen gehen verloren, wenn das Rohsignal mit einer herkömmlichen Verarbeitung des Radarsignals in eine Punktwolke umgewandelt wird. Wenn das System aus den Radar-Rohsignalen mehr Informationen gewinnen kann, erlaubt es ein sehr viel höheres Niveau beim autonomen Fahren – mit einer Technologie, die robust ist und unter allen Wetterverhältnissen funktioniert.

DAR + neuronale Netzwerke

Der Schlüssel zur Gewinnung dieser detaillierten Information ist der Einsatz neuronaler Netzwerke, die sich im Betrieb mit den Signalen optischer Kameras bei der Objekterkennung durchaus bewährt haben. Bei HF-Signalen ist sie zur Erkennung genauso erfolgreich. Es hat sich gezeigt, dass ein neuronales Netzwerk die Struktur der Radarphysik erlernen kann: Phänomene wie Mehrwegereflexionen, sehr hoher Dynamikbereich, das Problem der Entfernung und Artefakte durch die Gestaltung der Sensor-Wellenform.

Neuronale Netzwerke haben außerdem erfolgreich die Strahlungsstruktur verschiedener Arten von Objekten wie Fußgänger, Fahrzeuge und Kurven erkannt. Ein von Zendar entwickelter Trainingsrahmen sowie Algorithmen zum Deep Learning ermöglichen ein breit angelegtes Training per „Transferlernen“, bei dem die synchronisierten Ausgangssignale von Lidar und optischen Kameras den Radarsignalen überlagert werden, um die Erkennung der charakteristischen Signaturen von Objekten wie PKW, LKW, Fußgänger, Fahrräder, Motorräder und Leitplanken zu beschleunigen (Bild 4).

Bild 4: Software zum Maschinenlernen lässt das Fahrzeug Objekte wie beispielsweise andere Fahrzeuge erkennen, die in der von DAR erzeugten Punktwolke rechts dargestellt werden.
Bild 4: Software zum Maschinenlernen lässt das Fahrzeug Objekte wie beispielsweise andere Fahrzeuge erkennen, die in der von DAR erzeugten Punktwolke rechts dargestellt werden. (Bild: Zendar)

Softwaredefiniertes Radar: auf dem Weg zur umfassenden Autonomie

Das neue Modell des softwaredefinierten Radars in einer Satelliten-Radararchitektur liefert die hochaufgelösten klassifizierten Bildinformationen, die für die nächste Generation der Fahrerassistenzsysteme bis zur Level-5-Autonomie benötigt werden. Damit ist der Ruf der Automobilindustrie nach einem hochauflösenden Radar beantwortet. Es ist weithin anerkannt, dass Lidar wegen seiner hohen Kosten und seiner Unfähigkeit, bei Regen, Schnee oder Staub zu funktionieren, nicht die Schlüsseltechnologie für autonomes Fahren ist. Im Gegensatz hierzu funktioniert das Zendar-Modell des softwaredefinierten Radars mit beliebiger Radarhardware und auf jeder ADAS-Computerplattform; seine Hardwarekosten sind nicht höher als zur Unterstützung heutiger Fahrerassistenzfunktionen. Und während die Prinzipien hinter der DAR-Technologie zuerst dabei geholfen haben, die Tiefen der Milchstraße zu erkunden, werden ihre Vorteile hier auf den Straßen der Erde viel mehr Menschen von Nutzen sein. (av)

Sunil Thomas

Chief Business Officer bei Zendar

Sie möchten gerne weiterlesen?