Vergleich zwischen Domänen-Architektur und zonaler Architektur. Sowohl bei der ECU-internen Verbindung als auch bei ECU-übergreifenden Anwendungen kann bei zonalen Architekturen PCIe zunehmend punkten.

Vergleich zwischen Domänen-Architektur und zonaler Architektur. Sowohl bei der ECU-internen Verbindung als auch bei ECU-übergreifenden Anwendungen kann bei zonalen Architekturen PCIe zunehmend punkten. (Bild: Texas Instruments)

In der Automobilindustrie hat sich in den vergangenen Jahren eine eindrucksvolle Steigerung des Rechendurchsatzes vollzogen, resultierend aus der Tatsache, dass Datenintegration, Machine Learning (ML) und künstliche Intelligenz (KI) zu integralen Bestandteilen des Automobil-Ökosystems geworden sind. Einem 2020 von Global Market Insights veröffentlichten Report ist zu entnehmen, dass der Markt für Fahrassistenzsysteme (Advanced Driver Assistance Systems, ADAS) von 35 Milliarden US-Dollar im Jahr 2019 bis zum Jahr 2026 auf mehr als 60 Milliarden US-Dollar expandieren wird, was einer durchschnittlichen jährlichen Wachstumsrate von über 10 Prozent entspricht.

Grund für dieses starke Wachstum sind die immer zahlreicher werdenden Sicherheitsvorschriften sowie die zunehmende Zahl von Fahrassistenz-Funktionen in den Fahrzeugen auf dem Weg zum vollständig autonomen Fahren. Mit der Einführung der 5G-Netze, die die V2X-Konnektivität (Vehicle to Everything) für vernetzte Automobile revolutionieren sollen, dürften die Anforderungen an die Rechenleistung weiter wachsen, um die Vernetzung der Fahrzeuge zu verbessern. Die Zeit der elektronischen Steuergeräte (Electronic Control Units, ECUs), die in einer isolierten Umgebung nur eine einzige Funktion wahrnahmen, ist eindeutig vorüber. Stattdessen ähneln aktuelle Kraftfahrzeuge beinahe schon mobilen Rechenzentren.

Vorteile der zonalen Architektur

Automobilhersteller und Tier-1-Zulieferer sind dabei, sich für die technologischen Fortschritte in Sachen ADAS und Fahrzeug-Konnektivität zu rüsten, und überdenken in diesem Zusammenhang die Architektur ihrer Daten-Backbones. Die Rechenfunktionen werden dabei künftig nicht mehr domänenorientiert (z. B. für das ADAS) implementiert, sondern es kommen zunehmend zonale Architekturen zum Einsatz. Erreicht wird dies durch die Einrichtung lokaler Rechnerknoten (Zonen-Controllern) zur Verbindung von ECUs und Schnittstellen anhand ihrer physischen Lage innerhalb der jeweiligen Zone, d. h. unabhängig von ihrer Domäne. Die Zonen-Controller wiederum sind mit einem leistungsstarken zentralen Rechnerknoten verbunden, der die Daten entsprechend verarbeitet. Eine solche zonale Architektur hat drei Vorteile:

  1. Es sind insgesamt weniger ECUs notwendig und das Gewicht der Verkabelung sinkt: Indem  ECUs und Schnittstellen anhand ihrer physischen Position und nicht anhand der Domäne verbunden sind, der sie angehören, und indem gleichzeitig mehr Verarbeitung in einen zentralen Rechenknoten verlagert wird, sind weniger ECUs notwendig und das Gewicht der Verkabelung lässt sich deutlich verringern.
  2. Verteilung der Verarbeitungs-Ressourcen: Es ist nicht wirtschaftlich machbar, in einem einzigen Gehäuse einen Prozessor zu realisieren, der die gesamte nötige Rechenleistung für ein vollständig autonomes Fahrzeug bereitstellt. Indem die Rechenleistung mithilfe von Zonen-Controllern und einem zentralen Rechenknoten verteilt wird, lässt sich eine Optimierung des gesamten Rechendurchsatzes sowie der Nutzung der Speicherressourcen erreichen, ohne das System über Gebühr zu belasten.
  3. Verarbeitungs-Redundanz: Es werden Rückfallebenen benötigt, damit ein Ausfall nicht das gesamte System lahmlegen kann. Systemredundanz, die unter anderem durch das Verbinden weit voneinander entfernter Zonen-Controller zu einem Ring erreicht wird, ist eine attraktive Möglichkeit zur Vermeidung eines Ausfall-Szenarios, das eine bestimmte Region des Fahrzeugs betrifft.

Zonale Automotive-Architekturen verlangen jedoch nach durchsatzstarken Schnittstellen, die sich durch große Bandbreite und geringe Latenz auszeichnen. Im Fall sicherheitskritischer Echtzeit-Verarbeitungen geht es außerdem nicht ohne eine extrem geringe Latenz. Ein solches Interface muss jedoch keineswegs neu erfunden werden, denn es gibt bereits eine geeignete Schnittstelle für diese Anwendung. Das PCIe-Ökosystem (Peripheral Component Interconnect Express) erfüllt schließlich bereits die Forderungen industrieller Rechenzentren nach hoher Bandbreite und extrem geringer Latenz und kann somit in der Automobilindustrie auf ähnliche Weise zum Einsatz kommen. 

ECUs mit PCIe verbinden

Die Verwendung der PCIe-Technik im Automobilbereich ist durchaus nicht neu, denn diese Technik wird schon seit Jahren innerhalb von ECUs, sowie als Board-to-Board-Interface zwischen Prozessoren und Network Interface Cards (NICs) verwendet.

Der Einsatz von PCIe bietet eine Reihe wichtiger Vorteile:

  1. Skalierbare Bandbreite: Da sich die von PCIe gebotene Bandbreite mit jeder Generation verdoppelt hat (z. B. 8 GT/s bei PCIe 3.0, 16 GT/s bei PCIe 4.0 und 32 GT/s bei PCIe 5.0), lässt sich eine zukunftssichere Schnittstelle implementieren, die sich an wachsende Bandbreitenanforderungen anpasst. Auch hinsichtlich der Breite ist PCIe flexibel, da mehrere parallele Lanes (x2, x4, x8 oder x16) eingerichtet werden können.
  2. Extrem geringe Latenz und hohe Zuverlässigkeit: PCIe zeichnet sich durch minimalen Daten-Overhead und einen garantiert zuverlässigen Transport auf der Hardware-Ebene aus, woraus sich eine nur im zweistelligen Nanosekunden-Bereich liegende Latenz ergibt. Bei traditionellen Netzwerk-Technologien wie Ethernet sind Datenintegrität und Transport-Zuverlässigkeit dagegen softwaremäßig auf der TCP/IP-Ebene realisiert, wodurch sich die Latenz auf mehrere Mikrosekunden erhöht. Diese um eine ganze Größenordnung höhere Latenz vervielfacht sich über die gesamte Verbindungsstrecke in einem Fahrzeug und ruft damit ernste Probleme für Echtzeit-Anwendungen (z. B. ADAS- oder V2X-Applikationen) hervor.
  3. DMA (Direct Memory Access): Um den Verarbeitungsaufwand für die CPUs zu reduzieren, enthält PCIe eine eingebaute, ohne Pakete auskommende DMA-Methode, was die Latenz gemeinsam genutzter Speicher optimiert. Während bei anderen Interface-Technologien zusätzliche CPU-Zyklen für den Zugriff sowie das Puffern und Kopieren von Speicherinhalten aus einer anderen Domäne erforderlich sind, sorgt die einfache DMA-Implementierung in PCIe dafür, dass die Prozessoren auf gemeinsam genutzte Speicher ebenso effizient zugreifen können wie auf lokale Speicherressourcen.
  4. Breit gefächertes PCIe-Ökosystem: PCIe ist nicht-proprietär und ist bei CPUs, GPUs und Hardwarebeschleunigern zahlreicher Anbieter weit verbreitet. Dies wiederum sorgt für flexible Interoperabilität zu kommerziellen Bauteilen und umgehend verfügbaren IP-Blöcken. Viele Elemente des Networking-Ökosystems unterstützen PCIe außerdem bereits nativ, darunter SSD-Speicher und PCIe-basierte Switch-Strukturen mit NTB-Topologien (Non-Transparent Bridging).
Tabelle 1: Gegenüberstellung von Redrivern und Retimern und ihren Eigenschaften.
Tabelle 1: Gegenüberstellung von Redrivern und Retimern und ihren Eigenschaften. (Bild: Texas Instruments)

Koexistenz von PCIe und Multi-Gigabit-Ethernet

PCIe und Ethernet koexistieren gleichberechtigt als essenzielle Schnittstellen für die Daten-Backbones von Automobilen. Zurzeit wird PCIe noch vorwiegend zur Verbindung von Prozessoren innerhalb von ECUs genutzt, während die schnelle Verbindung zwischen den ECUs über die fahrzeuginterne Verkabelung meist mit Automotive-Ethernet realisiert wird. Mit der Schaffung der NBASE-T1-Standards für die Vollduplex-Signalisierung in Sende- und Empfangsrichtung über ein einziges differenzielles Leiterpaar ist Automotive-Ethernet in der Tat ideal für diese Aufgabe geeignet.

Mit der Ratifizierung des Multigig-Ethernet-Standards IEEE802.3ch im Jahr 2020 wurde die von Ethernet gebotene Bandbreite auf STP-Kabel von bis zu 15 m Länge zudem auf 10 Gbit/s (10GBASE-T1) angehoben. Unter Verwendung einer minimalen Kabelschnittstelle wurde Automotive-Ethernet von OEMs genutzt, um den insgesamt entstehenden Verkabelungsaufwand deutlich zu verringern und infolge der damit erzielten Gewichtsreduzierung auch den Kraftstoffverbrauch zu senken. Wenn es um breitbandige Verbindungen zwischen ECUs geht, bei denen die Minimierung der Kabel-Anzahl den Vorrang gegenüber Echtzeit-Verarbeitung und Maximierung der Rechenleistung hat, wird Automotive-Ethernet auch in Zukunft zahlreiche Pluspunkte als schnelles Interface verbuchen können.

In der Automobilindustrie geht der Trend jedoch zu geteilten Verarbeitungsressourcen und Redundanz über den Daten-Backbone, weshalb die lückenlose, native PCIe-Übertragung auch zwischen verschiedenen Boards zunehmend attraktiver wird als die traditionelle Lösung, PCIe-Signale für die Kabelübertragung per NIC in Ethernet umzuwandeln und an der Empfänger-ECU eine erneute Rückumwandlung in PCIe-Signale vorzunehmen. Immerhin gehen die PCIe-spezifischen Vorteile bei dieser Umwandlung verloren.

Sind Prozessoren jedoch direkt per PCIe verbunden, kommen die extrem geringe Latenz, die garantierte Zuverlässigkeit und die DMA-Fähigkeiten der PCIe-Technik in vollem Umfang zum Tragen, sodass sich die Recheneffizienz maximieren lässt und eine optimierte Echtzeit-Performance erreicht wird. Wenn bei der Verbindung zwischen verschiedenen ECUs die Echtzeitverarbeitung und die Rechenleistung wichtiger sind als die Zahl der Kabel, wird PCIe zu einer sinnvollen, schnellen Ergänzung zu Automotive-Ethernet.

Eck-Daten

PCIe ist eine attraktive Schnittstelle, mit der sich die Forderungen der nächsten Generation verteilter Automotive-Architekturen nach großer Bandbreite und extrem geringer Latenz erfüllen lassen. Schon in naher Zukunft haben PCIe-basierte Interconnect-Lösungen für den Automobilsektor das Potenzial, nicht nur für Schnittstellen innerhalb von ECUs, sondern auch für ECU-übergreifende Anwendungen eingesetzt zu werden. Redriver, Retimer und analoge Switches für PCIe-Signale werden den Automotive-Prozessoren helfen, ihre Fähigkeiten in Sachen Rechenleistung, Effizienz und Konnektivität vollständig auszuspielen.

Signalaufbereitung für ECU-interne und ECU-übergreifende Verbindungen

So genannte Redriver und Retimer sind notwendig, um die Schnittstellensignale zu regenerieren und der zusätzlichen Einfügedämpfung und der Verschlechterung des Signal-Rauschabstands, wozu es beim Transport von PCIe-Signalen über verlustbehaftete Medien zwangsläufig kommt, entgegenzuwirken – sei es auf Leiterplatten oder über Kfz-Verkabelungen. Sowohl Redriver als auch Retimer spielen im PCIe-Ökosystem schon seit langer Zeit eine wichtige Rolle. Redriver etwa stehen bereits seit PCIe 2.0 auf der PCI-SIG Integrator’s List freigegebener Bauelemente.

Seit PCIe 4.0 sind außerdem Retimer Bestandteil der PCIe Base Specification. Texas Instruments bietet in der Industrie ein umfangreiches Angebot an Redrivern, Retimern und passiven Switches für PCIe an und deckt damit eine Vielzahl von Anwendungsfällen im Industrie- und Automotive-Bereich ab. Eine Gegenüberstellung von Redrivern und Retimern ist in der Tabelle zu finden.

Michael Lu, Texas Instruments
Michael Lu, Texas Instruments (Bild: Texas Instruments)

Michael Lu ist High-Speed Systems and Applications Engineer bei Texas Instruments.

Sie möchten gerne weiterlesen?

Unternehmen

Texas Instruments Deutschland GmbH

Haggertystraße 1
85356 Freising
Germany