L3-Pkws und L4-Robotaxis befinden sich derzeit z. B. auf den Straßen in San Francisco.

L3-Pkws und L4-Robotaxis befinden sich derzeit z. B. auf den Straßen in San Francisco. (Bild: Ambarella)

Der technische Fortschritt, der für die Einführung neuer Produkte entscheidend ist, stellt Entwickler vor Herausforderungen. Denn deren Credo ist, die Grenzen des bisher für nicht möglich Gehaltenen zu überschreiten. Dies gilt insbesondere für die Automobilindustrie, in der die Fahrzeughersteller darauf drängen, KI-basierte Systeme durch das SAE-6-Stufenmodell für die Fahrautomatisierung von etablierten ADAS-fähigen Fahrzeugen (L2) auf Fahrzeuge mit den Autonomiestufen L3 und L4 zu überführen.

Die Fortschritte sind bereits groß: L3-Pkws sind in verschiedenen Regionen der Welt unterwegs, und L4-Robotaxis befinden sich derzeit in ausgedehnten Tests (und sogar im kommerziellen Einsatz), z. B. auf den Straßen in San Francisco. Bis diese Fahrzeuge jedoch in Serie zum Einsatz kommen können, sind noch viele kommerzielle, logistische und rechtliche Herausforderungen zu bewältigen.

Vom Proof-of-Concept zur Serienfertigung

Ein Teil der Herausforderung für die Fahrzeughersteller besteht darin, die Kluft zu überbrücken zwischen einem Proof-of-Concept (Konzeptnachweis), der auf der Erprobung einiger weniger Exemplare einer neuen Technik beruht, und der Vorbereitung auf eine robuste, wiederholbare und praktische Serienfertigung/-nutzung. Letzteres erfordert stabile, sichere und zuverlässige Designs, die zu einem Preis erhältlich sind, den die Käufer eines Fahrzeugs bereit sind zu zahlen.

Top-down- oder Bottom-up-Ansatz?

Bei der Entwicklung eines Proof-of-Concept führen verschiedene Wege zum Ziel. Beim Top-down-Ansatz integrieren Entwickler so viel Hardware, Sensorik und Software wie möglich in das Fahrzeug. Anschließend arbeiten sie daran, eine Fusion zu erreichen, die Komplexität zu verringern um die Kosten-, Gewichts- und Leistungsziele zu erfüllen. Im Gegensatz dazu ist der Bottom-up-Ansatz strukturierter. Dabei stellen die Fahrzeughersteller ein Design für eine Autonomiestufe fertig, bevor sie Daten sammeln und die notwendigen Herausforderungen meistern, um die nächste Stufe zu erreichen. Die letztgenannte Methode wird von den Herstellern von Serienfahrzeugen zunehmend bevorzugt

Übergang von L2 auf L3 auf L4

Damit Fahrzeuge fortschrittliche ADAS bieten und schließlich autonom fahren können, müssen sie ihre Umgebung wahrnehmen und auf der Grundlage dessen, was sie „sehen“, handeln können. Je genauer ein Fahrzeug seine Umgebung erfassen kann, desto bessere Entscheidungen wird es treffen und desto sicherer wird es sein. Daher beginnt die Entwicklung eines autonomen Fahrzeugs mit der Definition der Anzahl und Art der Sensoren, die rund um das Fahrzeug angebracht werden müssen. Für die Umgebungs-Sensorik sind drei Techniken gebräuchlich: Bildsensoren/Kameras, Radar und LiDAR, die jeweils ihre eigenen Stärken und Schwächen haben.

Sobald der Bedarf an Sensoren für das Fahrzeug definiert ist, müssen einige wichtige Entscheidungen getroffen werden, darunter die Definition der System-Architektur und des/der erforderlichen Prozessors/Prozessoren. Dies führt zu der grundsätzlichen Überlegung, ob die Sensordaten zentral oder dezentral verarbeitet werden sollen.

Bild 1: Die Definition der Sensorarchitektur ist für den Erfolg autonomer Fahrzeuge von grundlegender Bedeutung.
Bild 1: Die Definition der Sensorarchitektur ist für den Erfolg autonomer Fahrzeuge von grundlegender Bedeutung. (Bild: Ambarella)

Daten von mehreren Kameras werden in der Regel zentral verarbeitet. Mit herkömmlichem Radar war dies jedoch nicht möglich, da die enormen Datenmengen GBytes an Bandbreite erfordern würde. Daher basieren herkömmliche Radardesigns auf der Vorverarbeitung von Daten am Rande (Edge) des Fahrzeugs, bevor diese verarbeiteten Daten zentral mit Informationen von Kameras kombiniert werden. Das Ergebnis ist ein enormer Verlust an potenziellen Fähigkeiten des Systems.

Neue Radarkonzepte mit KI-basierten dynamischen Wellenformen

Diese Situation ist darauf zurückzuführen, dass herkömmliche Radargeräte feste Modulationstechniken verwenden, die je nach Modulationsschema Leistungsabstriche erfordern. Neue Radarkonzepte mit KI-basierten dynamischen Wellenformen, die sich in Echtzeit anpassen, lösen dieses Problem nun. Die Kombination eines Sparsified Array mit KI-Software, die dynamisch von der Umgebung lernt und sich ihr anpasst – VAI (Virtual Aperture Imaging) – überwindet den Modulationskonflikt und erhöht die Auflösung jeder Radar-Hardware um das bis zu 100-fache. Dies resultiert in eine wesentlich bessere Winkelauflösung und ein leistungsfähigeres und genaueres System mit einer Größenordnung weniger Antennen und damit verbundenen geringeren Formfaktoren, Leistungsbudgets, Datenübertragungsanforderungen und Kosten.

Vergleich von Edge-Verarbeitung und zentralisierte Verarbeitung

Bildgebungsradar mit Edge-Verarbeitung

  • Die Rechenkapazitäten sind auf größere Prozessknoten beschränkt, da höhere Junction-Temperaturen erforderlich sind, was sich auf die reduzierte Dichte und Empfindlichkeit auswirkt.
  • Feste Rechenkapazitäten müssen für Worst-Case-Szenarien vorgesehen werden, auch wenn sie in bestimmten Szenarien nicht erforderlich sind.
  • Höhere Kosten für Radarmodule, da die Verarbeitung am Rand (Edge) stattfinden muss und diese teurer ist.
  • Die grundlegende Sensorfusion erfolgt auf Objektebene mit Daten aus dem Radar und den optischen Erfassungssystemen.

 

Bildgebungsradar mit zentralisierter Verarbeitung

  • Deutlich leistungsfähigere und effizientere Prozessknoten lassen sich nutzen, was zu einer höheren Winkelauflösung, Dichte und Empfindlichkeit führt.
  • Verarbeitungskapazitäten lassen sich dynamisch verschieben – je nach Szenario zwischen den Radargeräten rund um das Fahrzeug.
  • Niedrigere Kosten für Radarmodule, da ein einziges Verarbeitungselement alle Radarmodule verarbeiten kann.
  • Tiefgreifende Sensorfusion auf niedriger Ebene durch die gleichzeitige Verarbeitung beider Rohdatenströme.

Darüber hinaus macht VAI die zentralisierte Verarbeitung von Radarmodalitäten (und die Fusion mit Kameradaten) zu einer praktikablen Lösung, die den Verlust wertvoller Daten früherer Ansätze vermeidet.

Mit der Auswahl der Architektur verbunden sind das Kommunikationsdesign und die Wahl des Protokolls/der Protokolle. Fortschritte bei Ethernet haben den deterministischen Betrieb ermöglicht, der für sicherheitskritische Automotive-Anwendungen unerlässlich ist. Dies hat zwar viele gängige Busprotokolle in Fahrzeugen verdrängt – es ist aber wahrscheinlich, dass auch andere Protokolle (wie SerDes oder PCIe) für den Datentransport in einem zentralisierten System erforderlich sein werden.

Bei der Umstellung auf Elektroantrieb ist die Wahl des zentralen KI-Domain-Controller-SoCs entwscheidend

Gleichzeitig ist mit der Umstellung von Fahrzeugen auf Elektroantrieb die Einsparung elektrischer Energie und eine maximale Reichweite pro Ladung eine wichtige Überlegung für jede Komponente des Fahrzeugs. Dies wirkt sich auf die Wahl des zentralen KI-Domain-Controller-SoCs (System-on-Chip) aus, da viele von ihnen erhebliche Mengen an Energie verbrauchen und damit die Reichweite des Fahrzeugs verringern. Hinzu kommt, dass die von einigen SoCs erzeugte Wärme ein aktives Kühlsystem erfordert – bei einigen Architekturen ist sogar eine Flüssigkeitskühlung erforderlich. Dies erhöht die Größe, die Kosten und das Gewicht erheblich und verringert zusätzlich die Reichweite pro Batterieladung.

Der Herausforderungen einer KI-basierten Software

KI-basierte Software wird immer mehr zu einem kritischen Bestandteil des Systems. Die Art und Weise, wie KI implementiert ist, hat dabei wesentlichen Einfluss auf die Wahl des SoC und den Anteil an Zeit und Geld, der für die Entwicklung eines autonomen Systems aufgewendet wird. Hier gilt es, die neuesten neuronalen Netze (NN) mit minimalem Aufwand und Energie zu betreiben, ohne dabei an Präzision einzubüßen. Dies erfordert sorgfältige Überlegungen, wie die Hardware NNs implementiert werden und wie eine Unterstützung in Form von Middleware, Gerätetreibern und KI-Tools erfolgt, um die Entwicklungszeit zu verkürzen und das Risiko zu mindern.

Sobald das Fahrzeug das Werk verlassen hat, muss die Software zwangsläufig aktualisiert werden – sei es, um ein Problem zu beheben oder um neue Funktionen hinzuzufügen. Dies vereinfacht sich durch eine zentralisierte Architektur, die auf einem einzigen Domain-Controller basiert und Over-the-Air-/OTA-Updates ermöglicht. So lässt sich die derzeitige Herausforderung lösen, die Software jedes Edge-Moduls einzeln zu aktualisieren – ein Prozess, der teurer und komplexer ist. Die OTA-Methode bedeutet wiederum, dass die Systemsicherheit ein weiterer wichtiger Bereich ist, den beim Design Entwickler bei Design berücksichtigen müssen.

Auswirkungen der SoC-Auswahl

Die Auswahl des SoC hat erhebliche Auswirkungen auf alle Aspekte des Entwicklungsprozesses sowie auf die Effizienz und Funktionen des autonomen Fahrzeugs, in dem der Prozessor zum Einsatz kommt. Bild 3 beschreibt einen leistungsstarken SoC, der als Domain-Controller in einer zentralisierten Sensorfusionsarchitektur mit KI-Verarbeitung für die Berechnung neuronaler Netze (NN) zuständig ist. Der Baustein führt den gesamten Stack für autonomes Fahren durch, einschließlich Bildsignalverarbeitung, Wahrnehmung unter Verwendung verschiedener Sensormodalitäten (Kameras, Radar, Ultraschall und LiDAR) und Entscheidungsfindung bei Fahrwegplanung sowie Deep Fusion für mehrere Sensortypen. Der Baustein unterscheidet sich stark von konkurrierenden ICs wie GPUs, die ein Allzweckdesign aufweisen, um eine breite Palette von Anwendungen zu bedienen. Dabei verwenden sie stattdessen große Mengen von Brute-Force-Rechenleistung, die viel Energie verbraucht.

Blockdiagramm des SoC CV3-AD685, der speziell für die zentralisierte KI-Domänensteuerung in Automotive-Anwendungen entwickelt wurde
Bild 2: Blockdiagramm des SoC CV3-AD685, der speziell für die zentralisierte KI-Domänensteuerung in Automotive-Anwendungen entwickelt wurde. (Bild: Ambarella)

Fähigkeiten und Eigenschaften des SoC

Der SoC enthält einen allgemeinen Vektorprozessor (GVP), der generische Algorithmen für das maschinelle Sehen und die Radarverarbeitung beschleunigt, einen fortschrittlichen Bildsignalprozessor, eine dichte Stereo- und Optical-Flow-Engine, 12 Arm-Cortex-A78AE- sowie R52-CPUs und eine Automotive-GPU. Diese dient ausschließlich zur Visualisierungen für die menschliche Wahrnehmung, wie Surround-View-Systeme. Der Chip enthält auch einen neuronalen Vektorprozessor (NVP), eine effiziente KI-Engine, die eine leistungsstarke, latenzarme und stromsparende Verarbeitung neuronaler Netze für ADAS und autonome Fahrzeuge der Klassen L2+ bis L4 unterstützt und über die nötige Verarbeitungskapazität verfügt, um den gesamten AD-Software-Stack auszuführen. Darüber hinaus verbraucht dieser SoC trotz seiner hohen Leistungsfähigkeit nur 30 W Leistung und hat dabei eine ähnliche KI-Leistungsfähigkeit wie GPUs, die 250 W oder mehr verbrauchen. Im Vergleich zu anderen SoCs kann dies für ein Elektrofahrzeug mit der gleichen Batteriekapazität einen geschätzten Reichweitengewinn von mindestens 30 km bedeuten. Alternativ lassen sich die Batteriekosten erheblich senken und das Batteriegewicht bei gleicher Reichweite um mehrere Kilo reduzieren.

Vorteile des zentralisierten Ansatzes

Da die Rohdaten aller Erfassungsmodalitäten an einem einzigen, zentralen Punkt zusammengeführt werden, bedeutet ein zentralisierter Ansatz, dass die Daten ohne den Verlust wichtiger Informationen zusammengeführt/fusioniert werden können. Da keine Edge-Verarbeitung erfolgt, vereinfachen sich die Radarsensormodule, deren Größe, Stromverbrauch und Kosten damit erheblich verringert werden können. Da sich die meisten Radarmodule hinter den Stoßfängern des Fahrzeugs befinden, minimieren sich so auch die Kosten nach einem Unfall.

Der zentralisierte Ansatz gibt Entwicklern auch die Flexibilität, die Bedeutung von Radar- und Kameradaten in Echtzeit anzupassen, um unter allen Wetter- und Fahrbedingungen das beste Umgebungsbewusstsein zu schaffen. So haben zum Beispiel bei schlechtem Wetter auf einer Autobahn die Radardaten Vorrang. Bei langsamer Fahrt in einer belebten Stadt hingegen spielen die Kameras eine wichtigere Rolle beim Erkennen von Verkehrszeichen und Gefahren. Die dynamische Bereitstellung der Sensoren bedeutet, dass Prozessorressourcen geschont werden und weniger Energie verbraucht wird, während sich die Wahrnehmung der Umgebung und die Sicherheit verbessert.

Fazit

Entscheidend für die Serienreife von L3- und L4-Fahrzeugen ist die Wahl der Sensoren und damit die Architektur des Fahrzeugs und des SoC, der als Domain-Controller fungieren wird. Mit dem Aufkommen leistungsfähigerer Prozessoren, die speziell für die zentralisierte Sensorfusion entwickelt wurden, und neuer KI-basierter Techniken wie Sparsified-Radar-Arrays wird es möglich, Radardaten zentral zu verarbeiten und sie mit Kameradaten zu verschmelzen. Damit ergibt sich eine verbesserte und dynamische Sensorik, die auf die unmittelbare Umgebung des Fahrzeugs reagieren kann. Diese verbesserte Leistungsfähigkeit und Empfindlichkeit könnte sogar den Einsatz von LiDAR eines Tages überflüssig machen, was die Kosten weiter senkt, ohne die Wahrnehmung der Umgebung zu beeinträchtigen. (bs)

Senya Pertsel

Senior Director für Automotive bei Ambarella

Sie möchten gerne weiterlesen?