Dargestellt sind die ADAS/AD-Levels von L0 bis L5.

Dargestellt sind die ADAS/AD-Levels von L0 bis L5. (Bild: Microchip)

Bisher getrennte Fahrzeugfunktionen könnten so zusammenarbeiten, indem Daten zur Gefahrenerkennung von Kameras und Radar den Frontscheinwerfern zur Verfügung gestellt werden, um Merkmale auf der Straße, den Radius einer Kurve oder einen Fußgänger hervorzuheben. PCIe ermöglicht diese gemeinsame Nutzung von Daten über viele SoCs hinweg, um mehrere Fahrzeugfunktionen abzudecken. Das verwendete Softwaremodell gestattet dabei eine nahtlose Kapazitätserweiterung über PCIe-, SoC- und Automotive-Plattform-Generationen hinweg. Der Wunsch, heutige Plattformen für mehrere Jahre zukunftssicher zu machen, treibt die Einführung von PCIe-Technologien voran.

Die Geschichte von PCIe

PCI geht auf einen parallelen Computerschnittstellenbus zurück, der in vielen Servern, Embedded- und Heim-PCs als Peripherieverbindung verwendet wird. Er wurde innerhalb der PCI SIG (Special Interest Group) definiert und standardisiert. PCIe ermöglichte die Verbindung vieler Geräte mit einem einzigen SoC. Ursprünglich waren dies vor allem x86-Geräte von Intel oder AMD, die mit einem Netzwerk, Hochgeschwindigkeits-Peripherie oder einem Grafikcontroller verbunden waren. Er entwickelte sich von 32- zu 64-Bit-Datenbussen, die mit 32 bis 64 MHz liefen und wurde schließlich serialisiert. PCIe ermöglicht nun Hochgeschwindigkeits-Datenverbindungen über eine differenzielle Verbindung – eine zum Senden und eine zum Empfangen. Ein Kabelpaar differenzieller Verbindungen wird „Lane“ genannt. Lanes lassen sich je nach angeschlossener Peripherie oder SoC in Ports gruppieren. Die Breite kann von einer Lane pro Port bis hin zu 16 oder 32 Lanes pro Port reichen.Vielmehr haben beide aus all diesen Gründen einen festen Platz in Fahrzeugen.

Data centre on wheels: Das autonome Fahrzeug ist ein komplexes System, das große Mengen an Echtzeitdaten, Cloud-Konnektivität und schnelle, sichere Entscheidungen erfordert. Es ist wie ein Rechenzentrum auf Rädern.
Data centre on wheels: Das autonome Fahrzeug ist ein komplexes System, das große Mengen an Echtzeitdaten, Cloud-Konnektivität und schnelle, sichere Entscheidungen erfordert. Es ist wie ein Rechenzentrum auf Rädern. (Bild: Microchip)

Vorteile eines Ethernet-Netzwerks

Im PC-Beispiel ist die Datenanbindungshierarchie einfach: Es gibt ein leistungsstarkes einzelnes SoC, an das schnelle Peripherie angeschlossen ist. Das war bei Servern auch so, aber mit deren Weiterentwicklung war es von Vorteil, zwei SoCs in unmittelbarer Nähe zu haben und die Peripherie gemeinsam zu nutzen – Zugriff auf Massenspeicher, schnellen Arbeitsspeicher und manchmal auch Daten. Dies ist die Grundlage von PCIe-Switches. Ein PCIe-Switch ermöglicht den unabhängigen, getrennten Zugriff eines SoCs (Root-Komplex) in einem Multi-SoC-System auf eine gemeinsame Peripherie-Gruppe (Endpunkte). Jeder SoC denkt, dass er unabhängigen Zugriff auf diese Peripherie hat – aufgrund einer Funktion, die als Non-Transparent Bridging (NTB) bekannt ist. Ein SoC mit PCIe-Switch in dieser Art von System nutzt die Vorteile der schnellen Datenverbindung mit geringer Latenz über kurze Distanzen.

Im Gegensatz dazu steht das Ethernet. Es basiert auf einem IEEE-Standard, ist abwärtskompatibel und darauf ausgelegt, Geräte zu erreichen, die mehrere Meter voneinander entfernt sind. Dies erfolgt über Backbones, die heute 100 oder 1000 Mbit/s betragen und in Zukunft auf 10 Gbit/s ansteigen. Darüber hinaus wurde Ethernet innerhalb der Open Alliance entwickelt, um spezielle Funktionen für Fahrzeuge wie Signalqualitätsanzeigen und den Wake/Sleep-Modus hinzuzufügen.

Die Layer-2-Media-Access-Control-/MAC-basierte Vermittlung ermöglicht es, dass ein Paket von einem beliebigen Punkt über physische Schnittstellen mit unterschiedlichen Ethernet-Geschwindigkeiten auf den Switches zu einem beliebigen anderen Punkt in einem Fahrzeug gelangen kann. Die homogene Natur eines allgegenwärtigen Ethernet-Netzes ist sein Vorteil und wird von den Nutzern in der Industrie weitgehend unterstützt.

Die Natur von Ethernet, das mit hoher Geschwindigkeit über längere Strecken arbeitet und dabei Erweiterungen des Standards unterstützt, unterscheidet es von PCIe, das über kürzere Strecken mit sehr hohen Datenraten und einem relativ einfachen Overhead arbeitet. Es sollte jedoch nicht davon ausgegangen werden, dass das eine das andere verdrängt. Vielmehr haben beide aus all diesen Gründen einen festen Platz in Fahrzeugen.

Die wichtigsten Abkürzungen in den Bereichen Automotive und Elektronik

Automobil-Begriffe wie ABS und CAN gehörten zu den ersten TLAs (Three-Letter Acronyms, also Abkürzungen, die aus drei Buchstaben bestehen) im Automotive-Bereich, aber mittlerweile gibt es so viele Abkürzungen, dass selbst Experten manchmal ins Grübeln kommen – zumal die Abkürzungen mittlerweile nicht nur aus drei Buchstaben bestehen. Weil selbst Experten, die jeden Tag mit den Begriffen umgehen, manchmal durcheinander kamen, hat die Redaktion ein großes, ständig aktualisiertes Abkürzungsverzeichnis mit weit über 1.000 Einträgen erstellt, das der Übersichtlichkeit halber in mehrere Einzelbeiträge aufgeteilt ist. Zu den Rubriken zählen unter anderem ADAS und AD; Schnittstellen, Test, Diagnose und Frameworks; Elektromobilität;  IoT, Wireless, Netzwerk und Schnittstellen sowie viele weitere.

Hier geht es zur Übersicht der Abkürzungsverzeichnisse.

PCIe ermöglicht den Anschluss mehrerer Geräte

Es wurden zwar zwei Situationen beschrieben, in denen SoCs miteinander kommunizieren können, aber ADAS der Stufe 3 und höher bringt diese nun wirklich zusammen. Bei sicherheitskritischen Systemen, die häufig Live-Kameradaten in ihre Entscheidungsprozesse einbeziehen, ist es nicht nur wichtig, dass die Live-Videodaten nicht komprimiert sind, sondern dass auch zusätzliche Latenz vermieden wird, da sie in ein Ethernet oder einen anderen Frame-Typ gepackt werden.

In den meisten Fällen werden die Kameradaten direkt mit den entsprechenden Videoschnittstellen auf dem SoC verbunden. Möglicherweise gibt es mehr als einen SoC, der sich diese Arbeitslast oder die Echtzeit-Erfassung teilt und die Videoströme mitverarbeitet. Beschleuniger sind ebenfalls erhältlich, die speziell KI- und ML-Workflows und -Datensätze unterstützen.

Eine geringere Latenz bei der Datenübertragung innerhalb dieses Hochleistungsrechners im Fahrzeug, bei dem häufig derselbe Datensatz gemeinsam genutzt wird, ist entscheidend und bietet sich für PCIe an. Die gemeinsame Nutzung von Daten zwischen mehreren SoC-Root-Komplexen und Geräten wie SSDs und Netzwerkschnittstellenkarten ermöglicht ein PCIe-Switch, der auch die oben beschriebenen NTB-Funktionen bietet. Einfachere Datenanbindungsoptionen könnten über Fabrics verfügbar sein, aber es ist die Software- und Konfigurationsdefinierbarkeit, die der PCIe-Switch bietet, die die volle Nutzung der Systemressourcen ermöglicht. Die gemeinsame Nutzung von Ressourcen ist eine wichtige Systemfunktion, die OEMs aktiv nutzen wollen. Ein PCIe-Switch bietet auch deutliche Vorteile, wenn es darum geht, kostenoptimierte und stets sicherheitskritische Systeme zu entwerfen.

Ein PCIe-Switch kann eine modulare Verbindung von SoCs ermöglichen, die unter Umständen am Ende der Fertigungslinie teilbestückt und dann bei einem Händler mit zusätzlichen Modulen aufgerüstet werden. Auch wenn alle Fahrzeuge Over-the-Air-/OTA-Updates und -Erweiterungen unterstützen, eröffnet der Einsatz von HPC den OEMs die Möglichkeit, mit den nachfolgenden Besitzern desselben Fahrzeugs Geld zu verdienen. So können durch das Angebot von Leistungs- und Funktionsverbesserungen neue Einnahmequellen über Erst- und Zweitbesitzer hinaus erschlossen werden. Das „Auto als Service“ ist geboren.

Das sicherheitskritische Element darf nicht außer Acht gelassen werden. Ein PCIe-Switch gestattet auch die gemeinsame Nutzung ähnlicher Arbeitseinheiten innerhalb eines Fahrzeugs, sodass der Ausfall eines funktionierenden Systems bewältigt werden kann, um einen schweren Fehler zu vermeiden.

Die PCI Express link performance der verschiedenen Versionen.
Die PCI Express link performance der verschiedenen Versionen. (Bild: Microchip)

Wie PCIe ein skalierbares Softwaremodell bereitstellt

Die Funktionsweise von PCIe ist in all diesen Systemen sehr ähnlich. Sämtliche SoCs nutzen gängige Transaktionen, um Daten aus dem Speicher in den Adressraum eines PCIe-Geräts irgendwo auf dem Switch zu verschieben. Dies gilt sowohl für SoCs als auch für verschiedene PCIe-Generationen und ist seit Einführung des ursprünglichen PCI so.

Darüber hinaus lässt sich die PCIe-Switch-Konfiguration so einstellen, dass sie die maximale Konfiguration annimmt, selbst wenn am Ende einer Teilmenge von Modulen oder Ressourcen eine teilweise Anpassung erfolgt. Beispiele sind der Einbau eines SoCs, mit der Option einer Aufrüstung auf drei SoCs; das Hinzufügen einer einzelnen SSD, mit der Möglichkeit, eine weitere SSD zu einem späteren Zeitpunkt ergänzen zu können. Auch das spätere Beifügen eines ausfallsicheren PCIe-Switches zum System ist möglich.

Auf der Seite des PCIe-Switches lässt sich die zukünftige Entwicklung des Systems rationalisieren. Die SoC-Software für die PCIe-Unterstützung kann statisch bleiben und die Entwicklerressourcen der OEMs können sich auf die Benutzerfunktionen konzentrieren, die sie im eingebauten SoC-Modul unterstützen. Der PCIe-Switch wird das einzige Element im System sein, das sich mit Leistungs- und System-Upgrades befassen muss, wobei Funktionen zum Einsatz kommen, die vom Switch selbst unterstützt und nicht von den SoCs unterstützt werden müssen.

Beispiele für das Aufrüsten sind die Integration eines virtuellen Root-Komplex, der es dem Switch gestattet, während der Lebensdauer einer Plattform zusätzliche SoCs zu erkennen, um den Austausch von SoC-Optionen zu erlauben. Auch die verbesserte sichere Autorisierung des SoC-Zugriffs auf gemeinsam genutzte Ressourcen nach der Authentifizierung kommt hier hinzu.

Ein zweites Beispiel ist ein Mechanismus in Rechenzentren, der es mehreren SoCs ermöglicht, auf Solid-State-Laufwerke (SSDs) zuzugreifen, wobei der Zugriff der einzelnen SoCs unabhängig ist und durch einen Mechanismus namens SR-IOV (Single Root IO Virtualisation) geschützt und verwaltet wird. In der Regel wird dies mit einem komplizierten Software-Stack auf dem SoC durchgeführt, aber es lässt sich auch von einem einzigen Treiber innerhalb des Switches orchestrieren. Dies ist ein weiteres Beispiel, bei dem die Komplexität der Softwareentwicklung vereinfacht und vereinheitlicht wurde und dennoch durch den standardisierten PCIe-Treiber auf dem SoC zugänglich ist.

PCIe-Kapazität erweitern

Wie bereits erwähnt, können SoCs als austauschbare Einheiten auf einer Backplane installiert werden, die den PCIe-Switch enthält. Das System kann zu Beginn vollständig bestückt oder über zukünftige Erweiterungen bestückt werden. Die PCIe-Anbindung lässt sich auch durch Hinzufügen zusätzlicher Backplanes oder Chassis und deren Verbindung untereinander erweitern. PCIe-Anbindung wird meist über Leiterbahnen auf der Backplane und über gelötete Steckverbinder mit kurzer Reichweite hergestellt. Was aber, wenn man ein zweites Gehäuse aktivieren möchte? In vielen Fällen ist es einfacher, diese Ergänzung als komplette zweite Einheit vorzunehmen und nicht als Upgrade einer bereits eingebauten Einheit. Das zweite Chassis kann Funktionen der nächsten Generation ermöglichen, z. B. ein Level-4-Upgrade für das werkseitig ausgestattete Level-2-Fahrzeug.

Oder es kann ein Leistungsupgrade mit zusätzlicher Zuverlässigkeit sein (z. B. Worker/Standby und Failover).

Es ist einfacher, einen separaten Platz im Fahrzeug zu schaffen und einen Kabelbaum zu diesem Platz zu verlegen, als Geräte zu entfernen, um auf eine bereits eingebaute Einheit zuzugreifen. Anbindung und Verkabelung sind jetzt eine Voraussetzung – während sich dies im Ethernet-Bereich für mehrere Meter umsetzen lässt, würde dies ansonsten auf Kosten der Datenbandbreite geschehen. Eine Hochgeschwindigkeitsverbindung über ein kurzes Kabel könnte die Antwort auf diesen Upgrade-Traum sein.

Microchip hat ein Automotive-PCIe-Referenzboard entwickelt, das mit H-MTD-Standardsteckern ausgestattet ist und Kabelkonfektionen verwendet, die nicht für Datenzentren im Automotive-Bereich bestimmt sind. Dies erfolgte, um den Einsatz von Standardkomponenten zu bewerten, die eine größere PCIe-Reichweite über Kabel ermöglichen. In Praxistests wurden bei Gen3- als auch bei Gen4-PCIe-Links mehrere Meter Reichweite erzielt.

FuSa in PCIe-Systemen mit Hochleistungs-SoCs

Viele fortschrittliche SoCs in der Klasse, die für autonomes und halbautonomes Fahren verwendet werden, unterstützen höhere Stufen der funktionalen Sicherheit (FuSa), z. B. ASIL Level D. Dieser Grad erfordert mehrere Cores im Gleichschritt, was in der Klasse vieler SoCs, die in ihrer Leistungsfähigkeit fortschrittlich genug sind, um die ADAS-Funktion zu liefern, unerschwinglich wird. Um eine Systembewertung der Stufe C oder höher zu erreichen, ist eine funktionale Zerlegung und Partitionierung mit Komponenten der ASIL-Stufe B erforderlich. Dies wird durch Verbindungen auf der Ebene physischer und virtueller Container und durch interne Datenpfade möglich.

Fazit: Skalierbarkeit und Erweiterung

Das eigentliche Ziel ist das autonome Fahren der Stufe 4. Dennoch möchte ein OEM einen Plattformansatz verfolgen, der es ermöglicht, Funktionen und Dienste von Modellen hinzuzufügen, die mit ADAS der Stufe 2 oder 3 beginnen. Dies erfordert eine Denkweise, die auf Skalierbarkeit und Erweiterung ausgerichtet ist, anstatt die anspruchsvollsten Arbeitslasten der Zukunft im Voraus zu berücksichtigen. Die Skalierbarkeit der SoCs, die erweiterte gemeinsame Nutzung von Ressourcen im Laufe der Zeit und die Möglichkeit, zusätzliche Chassis mit PCIe-Switches hinzufügen zu können, machen eine gemeinsame Basisplattform für verschiedene Modelle und Plattformen über viele Modelljahre hinweg möglich. Der Verbraucher wird ein „Auto als Service“ nutzen, das auf dem softwaredefinierten Fahrzeug basiert und das Rechenzentrum auf Rädern nutzt. All dies ist heute schon möglich. (neu)

Autor

Autor Richard Herbert
(Bild: Microchip)

Richard Herbert, Automotive Networking Product Marketing Manager, Microchip Technology

Sie möchten gerne weiterlesen?