Die Weiterentwicklung fortschrittlicher Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) und des autonomen Fahrens ist entscheidend für sichereres Fahren, die Vermeidung von Unfällen und die Rettung von Menschenleben. Die Bewertungen des New-Car-Assessment-Programms (NCAP) beschleunigen diesen Wandel. Darüber hinaus machen sie automatische Notbremsassistenten, Totwinkel-Erkennung oder die Erfassung gefährdeter Verkehrsteilnehmer zur Pflicht.
Die Einführung der 4D-Imaging-Radartechnologie für Anwendungen im Bereich der Fahrzeugsicherheit und des autonomen Fahrens hat den Zeithorizont und die Kosten auf dem Weg von L0- zu vollständig autonomen L5-Fahrzeugen maßgeblich verändert. Durch die Möglichkeit einer präzisen 360-Grad-Umgebungskartierung und einer fein aufgelösten Objekterkennung aus großer Entfernung definiert Imaging Radar die Erwartungen der Industrie an seine Rolle im Vergleich zu Kameras und Lidarsensoren neu. In Bezug auf Leistung und Zuverlässigkeit schließt Imaging Radar die Lücke zum Lidar und das zu einem Preis, der für das Lidar kaum erreichbar sein wird.
Da sich die Automobilhersteller noch mit den vielen komplexen Entwicklungsanforderungen auseinandersetzen, die für die L3-Konformität erforderlich sind, konzentriert sich die Aufmerksamkeit zunächst auf den Übergangslevel 2+ (siehe Bild 1). L2+ bietet ähnliche Funktionen wie L3, während bei denen der Fahrer weiterhin als Kontrollinstanz fungiert. In dieser Übergangsphase können die Hersteller das Preis-Leistungsverhältnis hinsichtlich der Funktionen und Kosten optimieren und schrittweise „L3-Light-Fahrzeuge“ einführen.
Wie sich das Imaging-Radar entwickelt hat
Zu Beginn wurde die Radartechnik vor allem zur Erkennung anderer Fahrzeuge eingesetzt. Dabei handelte es sich im Wesentlichen um 2D-Sensoren, die Geschwindigkeit und Entfernung messen. Die modernen 4D-Imaging-Radarsensoren erfassen nicht nur Geschwindigkeit und Entfernung, sondern auch horizontale und vertikale Richtungswinkel. So kann das Fahrzeug nicht nur zwischen Autos unterscheiden, sondern auch zwischen Fußgängern, Fahrrädern und kleineren Objekten.
Möglich wird dies durch MIMO-Antennenarrays (Multiple Input Multiple Output), die eine große Anzahl virtueller Kanäle erzeugen. Bestimmte Arten von erweiterten MIMO-Verfahren können zu Mehrdeutigkeiten in den empfangenen Radar-Signalen führen, diese lassen sich aber durch geeignete Methoden auflösen.
Die Gestaltung von MIMO-Wellenformen und die Abschwächung von Verzerrungen sind wichtige Bereiche für Innovationen. Tier-1- und OEM-Kunden können eigene proprietäre MIMO-Wellenformen und Lösungen entwickeln, um diese Störungen zu reduzieren. Als Alternative zu kundeneigenen Lösungen bietet NXP mit dem Premium Radar SDK auch fortschrittliche MIMO-Wellenformen und Techniken zur Reduzierung von Verzerrungen an. Das reduziert den F&E-Aufwand und beschleunigt die Markteinführung von Produkten. Die Implementierung dieser fortschrittlichen Techniken ist für die zugrundeliegenden NXP-Radarprozessoren, wie z. B. S32R45 und S32R41 optimiert. Tier-1- und OEM-Kunden können damit für Radarsensoren die bestmögliche Leistung aus der aufeinander abgestimmten Software und Hardware herausholen.
Mit diesen verbesserten Fähigkeiten können Radarsensoren hochauflösende Punktwolken liefern, die eine präzisere Kartierung der Umgebung ermöglichen und eine bessere Wahrnehmung der Verkehrssituation bieten, wie sie für höhere Stufen von ADAS und autonome Fahrsysteme erforderlich ist. Dabei sind sie wesentlich kostengünstiger als Lidar, was sie für eine breite Verwendung in großen Stückzahlen geeignet macht. Das 4D-Imaging-Radar verfügt darüber hinaus über die einzigartige Funktion des Multimode-Betriebs, die eine gleichzeitige Erfassung von Objekten in allen Entfernungen erlaubt, vom Nahbereich bis zu einer Reichweite von 300 Metern oder mehr. Da Radarsensoren zudem unabhängig von den Umgebungsbedingungen eingesetzt werden können, ist zu erwarten, dass sie sich zur wichtigsten, vielseitigsten und zuverlässigsten Erfassungstechnologie bei der Sensorausstattung von Fahrzeugen auf allen Autonomieleveln entwickeln werden.
Anspruchsvolle Anwendungsfälle für autonomes Fahren
Kamera- und Radarsensoren ergänzen sich gut und sind für einen breiten Einsatz von Level 1 bis Level 5 vorgesehen. Bei Level 2 ist eine Fusion der Sensordaten erforderlich, damit das Fahrzeug gleichzeitig eine Quer- und Längskontrolle ausüben kann. Bei Level 2+ und Level 3 wird das Fahrzeug voraussichtlich mehrere Quer- und Längskontrollsysteme kombinieren, um deutlich komplexere, aufgabenorientierte Anwendungsfälle zu bewältigen.
Der Anwendungsfall des Autobahnpiloten ist ein gutes Beispiel für die hochentwickelten Fähigkeiten des 4D-Imaging-Radars (siehe Bild 2). Während das Fahrzeug mit Geschwindigkeiten von bis zu 130 km/h fährt, kann es einen Spurwechsel einleiten und das langsamere vorausfahrende Fahrzeug überholen. Bei diesem Überholmanöver muss das Fahrzeug frühzeitig weit vorausschauen, um Gefahren zu erkennen und zuverlässig freien Raum und einen sicheren Abstand zu Autos und Motorrädern auf den benachbarten Fahrspuren zu gewährleisten.
Herkömmliche bildgebende 2D-Radargeräte haben einen begrenzten Erfassungsbereich und verfügen nicht über die Winkelauflösung, um diesen benötigten freien Raum zu erkennen und zu sichern. Bei Level 2+ wird erwartet, dass der Fahrer komplizierte Manöver wie dieses durchführt, wenn erforderlich. Lidar würde hier eine zusätzliche redundante Komponente darstellen, was aus Kostengründen eine Herausforderung bei der Entwicklung für Autonomielevel 2 darstellt.
Der „Urban Pilot“ ist ein weiteres Beispiel für einen komplexen, aufgabenspezifischen Anwendungsfall. In einer Stadt, in der schnell Gefahrensituationen entstehen, sollte ein Fahrzeug in der Lage sein, auch bei Geschwindigkeiten von bis zu 70 km/h noch Fußgängern und kleineren Hindernissen auszuweichen. Noch komplexer wird es bei Straßen mit zeitlich beschränkten Fahrspuren, die automatisch je nach Tageszeit ein- oder zweispurig befahrbar sind, was allerdings ein L5-Anwendungsfall wäre.
Eine hochpräzise Objekterkennung und -klassifizierung ist in diesem Anwendungsfall ebenso unerlässlich wie eine sehr detaillierte Umgebungskartierung. Bei L4 und L5 ist der Fahrer nicht verpflichtet, die Kontrolle über das Fahrzeug zu übernehmen. Vollständige Redundanz ist hier daher keine Option mehr, sondern unabdingbar.
Aus diesem Grund werden bei L4- und L5-Fahrzeugen voraussichtlich alle drei primären Fahrzeugsensortechnologien – Kamera, Radar und Lidar – in die Sensoreinheit integriert sein. Leistungsstarke 4D-Imaging-Radarsensoren erleichtern es, L3 und höhere Autonomiestufen zu erreichen, ohne dass mehr als ein Lidar pro Fahrzeug für Redundanzzwecke benötigt wird. Das hilft OEMs, ihre Kosten auf der Sensor- und Datenverarbeitungsebene zu reduzieren.
4D-Imaging-Radar als Wegbereiter für Autonomie
Die Markteinführung der 4D-Imaging-Radartechnologie hat große Auswirkungen auf die umfassende Verbreitung von L2+-Fahrerassistenzfunktionen sowie den Weg zu vollständig autonomen L5-Fahrzeugen. Die Rolle und Bedeutung der Kamera-, Radar- und Lidar-Sensortechnologien für jede Autonomiestufe hängt von ihren jeweiligen Stärken ab. Zweifelsohne werden Radarsensoren die wichtigsten Sensoren sein, ergänzt durch Kameras für die Autonomielevel 2+ und 3 sowie durch Kameras und Lidar für die Level 4 und 5. (neu)
Autor
Huanyu Gu, Director Product Marketing and Business Development ADAS, NXP Semiconductors.