Bild 3: Mit Prescan lassen sich simulierte, aber realistische und physikalisch fundierte Sensordaten für die Modellierung erzeugen.

Bild 3: Mit Prescan lassen sich simulierte, aber realistische und physikalisch fundierte Sensordaten für die Modellierung erzeugen. (Bild: Mentor Graphics)

Ein Auto der Mittelklasse verfügt heute über hunderte elektronischer Systeme. Die Anzahl und Komplexität dieser Systeme nimmt mit jeder neuen Fahrzeuggeneration zu. Dabei müssen die Systeme nicht nur einzeln zuverlässig funktionieren, sondern auch im Zusammenspiel mit dem Gesamtfahrzeug. Zudem müssen sie vergleichsweise zukunftssicher sein, da der Trend immer mehr in Richtung Smart Cities und intelligenter vernetzter Verkehr geht – natürlich mit dem ultimativen Ziel, autonomes Fahren gemäß Level 5 zu erreichen, wo Fahrzeuge mit anderen Fahrzeugen (V2V) und ihrer Infrastruktur (V2I) kommunizieren. Laut Akio Toyoda, Präsident von Toyota und Enkel des Firmengründers, sind 14,2 Milliarden Kilometer an Testfahrten (einschließlich Simulation) erforderlich, um nachzuweisen, dass autonome Fahrzeuge sicher sind.

Automobilzulieferer und -hersteller müssen ihre elektronischen Systeme auf allen Ebenen inklusive Komponenten, Steuergeräte (ECU, Electronic Control Units) und übergeordneter Fahrzeugsysteme vor dem Einsatz testen. Mit den vielen verschiedenen Konfigurationen in den Produktlinien eines Fahrzeugherstellers und der Platzierung der Systeme im Fahrzeug (oft in der Nähe des Motorblocks oder nah an vibrierenden Teilen) gestaltet sich die Thematik äußerst komplex. Noch komplizierter wird die Sache durch die Notwendigkeit, sämtliche Automobilsysteme unter allen möglichen Fahrbedingungen zu testen, einschließlich extremer Wetterbedingungen und sogar unterschiedlicher Fahrstile. Und schließlich sind diese Systeme auch im Zusammenhang mit anderen Fahrzeugen und Infrastrukturen zu testen. Es stellt sich also die Frage, wie ein ausreichender Test dieser Systeme realisierbar ist.

Modellierung von Sensoren

Bild 1: Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen.

Bild 1: Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen. Mentor Graphics

Insgesamt betrachtet gehören Sensoren zu den wichtigsten Systemen selbstfahrender Fahrzeuge. Autonome Autos benötigen eine Vielzahl von Sensoren, die ihnen als Augen und Ohren dienen. Heute hat ein normales Fahrzeug (nicht autonom fahrend, nur mit einigen Fahrerassistenzfunktionen ausgeführt) zwischen 60 und 100 eingebaute (Onboard-) Sensoren – und die Anzahl solcher Sensoren nimmt perspektivisch zu, wenn Autos immer intelligenter werden.

Kein Sensortyp allein kann alle Funktionsanforderungen bei allen Wetter- und Lichtverhältnissen erfüllen (Bild 1). Daher streben die meisten Unternehmen eine Kombination von Sensoren an, um eine 360-Grad-Sicht um das Fahrzeug herum zu ermöglichen.

Lidar nutzt das Licht eines gepulsten Lasers, um Abstände mit höchster Genauigkeit zu messen. Radar hingegen wird für die Erkennung und Nachverfolgung von Objekten eingesetzt, zum Beispiel um die Fahrzeuggeschwindigkeit und -richtung sowie den Abstand zu Objektkanten zu ermitteln. Obwohl Radar nicht die gleiche Detailgenauigkeit wie Lidar aufweist, ergänzen sich die beiden Verfahren, da Radar auch bei ungünstigen Wetterbedingungen gut funktioniert. Für das autonome Fahren ist beides notwendig – auch wenn Elon Musk hier eine Ausnahme macht und die vollständige Autonomie bei Tesla nur mit Kameras, Radar und Ultraschallsensoren realisieren will.

Kameras kommen zum Einsatz, um die für die Bilderkennung erforderlichen Textur-, Farb- und Kontrastinformationen zu erfassen. Kameras – sowohl innerhalb als auch außerhalb eines Fahrzeugs – sind die führende Technologie zur Klassifizierung von Objekten. Einige Unternehmen verwenden in ihren selbstfahrenden Autos Kameras zusammen mit Radar. Lidar wird hingegen zur Klassifizierung nicht herangezogen.

 

Warum für Sensoren im Fahrzeug ein wärmebewusstes Design so wichtig ist, erfahren Sie auf der nächsten Seite.

Wärmebewusstes Design

Bild 2: Bei der Lidar-Entwicklung ist eine zuverlässige thermiche Simulation unter Berücksichtung der Einbaulage unbedingt notwendig.

Bild 2: Bei der Lidar-Entwicklung ist eine zuverlässige thermische Simulation unter Berücksichtung der Einbaulage unbedingt notwendig. Mentor Graphics

Die Entwicklungsziele für Lidar-Systeme, Radargeräte und Kameras sind weitgehend die Verringerung von Größe und Kosten, ohne die Anforderungen an die Auflösungen und Reichweiten zu beeinträchtigen, die zur Gewährleistung der verschiedenen Fahrzeug-Autonomie-Levels erforderlich sind. Darüber hinaus müssen die Sensoren nach dem Einbau unter allen Wetterbedingungen zuverlässig funktionieren. Jedoch können die angestrebten Entwicklungsziele wie das Verkleinern der Formfaktoren und das Zusammenführen von Funktionen für die Signalverarbeitung zu einer unerwünschten Wärmeentwicklung führen, was sich nachteilig auf die Leistung und Zuverlässigkeit des Sensors auswirkt.

Durch ein wärmebewusstes Design der Sensorelektronik und des Gehäuses unter Berücksichtigung der Einbaulage im Fahrzeug lassen sich die angestrebten Verringerungen bei den Abmessungen (und den Kosten) erreichen, ohne die Lebensdauer der Sensoren durch unerwünschte Hitzestaus zu beinträchtigen. Bild 2 zeigt die Notwendigkeit einer zuverlässigen thermischen Simulation bei der Lidar-Entwicklung für ein autonomes Fahrzeug unter Berücksichtigung der Einbaulage in einer frühen Entwicklungsphase.

Eine Integration von Festkörperlasern in Lidar-Systeme für Scheinwerfer kann zusätzliche Herausforderungen bei der Wärmeentwicklung darstellen und die Leistung der Scheinwerfer bei Nebelbildung oder Vereisung beeinträchtigen. Die Flo-EFD-Lösung aus dem Mentor-Portfolio von Siemens ermöglicht es Herstellern von Lidar-Systemen und Scheinwerfern dank designorientierter Simulationsfunktionen diese speziellen Herausforderungen zu meistern.

Ebenso kann es bei Vision-Sensoren, insbesondere bei Kameras, zu einer Wärmeentwicklung kommen, die eine Pixelverdunkelung verursacht, welche wiederum zu einer schlechten Bildqualität führt. Auch können die erhöhten Anforderungen an die Signalverarbeitung in der Multifunktionselektronik die Temperatur erhöhen, was sich auf die Leistungsaufnahme auswirken kann. Im Endergebnis könnte das die Datenqualität an den Sensorausgängen und die Zuverlässigkeit der Daten negativ beeinflussen.

Elektromagnetische Verträglichkeit

Aufgrund seiner entscheidenden Rolle beim Betrieb der Sensoren in autonomen Fahrzeugen muss das Sensorelektronik-Design auch die Signalintegrität gewährleisten. Elektromagnetische Störungen stellen beim Radar eine große Herausforderung dar. Mit Mentors Hyperlynx und Xpedition AMS, ebenfalls Produkte der Siemens-Entwicklungsumgebung für autonome Fahrzeuge, können Ingenieure die Elektronik unter Berücksichtigung der Power-Integrität und der elektromagnetischen Verträglichkeit (EMV) entwickeln. Mit derartigen Tools können Entwicklungsteams die Busstruktur der Steuergeräte und die Signalfrequenz optimieren, um bei der elektromagnetischen Verträglichkeit maximale Robustheit zu gewährleisten.

Neben der Ermittlung der Geschwindigkeit von Objekten und des Abstands zwischen ihnen durch Sensoren müssen sich intelligente Fahrzeuge auch für den energieeffizientesten und sichersten Weg zum Zielort entscheiden. Dies führt zu Überlegungen zur Datenverarbeitung und wie die Systeme bei größeren Fahrzeugen und in den vielen Umgebungen, in denen sie sich bewegen, miteinander verbunden sind, und wie sie sich testen lassen.

 

Im Folgenden beschreibt der Beitrag, wie sich Verkehrsszenarien modellieren lassen und wie neuronale Netzwerke dabei helfen können.

Umgebungs- und Verkehrsszenarien modellieren

Eck-Daten

Um die Sicherheit eines autonom fahrenden Fahrzeugs nachzuweisen, sind mehrere Milliarden gefahrener Kilometer – simuliert und real – notwendig. Hier ist ein besonderes Augenmerk auf den Test der Sensorsysteme zu legen, da sie die Augen und Ohren des Fahrzeugs sind. Diese müssen unter realen Verkehrsbedingungen, bei unterschiedlichen Wetterlagen und auch für verschiedene Fahrstile Tests unterzogen werden, bis die Sensor-Plattform stabil ist. Nicht zu vernachlässigen sind auch thermische Simulationen – legen Entwickler doch immer mehr Wert auf geringe Abmessungen, was zu Wärmestaus führen kann. Mit der DRS-360-Plattform für autonomes Fahren von Mentor und dem Prescan-Tool von Tass International lassen sich Systeme mit simulierten, aber physikalisch fundierten Sensor-Rohdaten testen und verfeinern.

Derzeit verwenden viele Fahrzeuge mit ADAS-Funktionen verhältnismäßig einfache Computer mit niedrigen Taktfrequenzen und begrenztem Speicher, um einen recht einfachen Code zu verarbeiten. Die meisten Sensormodule enthalten 8- oder 16-Bit-Prozessoren, die die Rohdaten-Berechnungen durchführen, bevor sie einen Teil der berechneten Werte zum Beispiel an die Highend-Systeme für die Kollisions- und Geschwindigkeitsüberwachung weiterleiten. Diese Art der verteilten Rechnerarchitektur, bei der die Datenverarbeitung an jedem Sensorknoten stattfindet, ist problematisch, da sie bei der Übertragung sicherheitskritischer Informationen zu einer langen Latenzzeit führt und die Kosten sowie die Leistungsaufnahme erhöht.

Bezugnehmend auf Angaben des Powertrain-Zulieferers Borg Warner stellte der Nachrichtendienst Bloomberg am 11. Oktober 2018 in einem Artikel fest, dass die Technologie für autonomes Fahren zu einer hohen Leistungsaufnahme führe. Einige der heutigen Prototypen für vollständig autonome Systeme würden zwei bis vier Kilowatt verbrauchen – das entspräche 50 bis 100 Laptops, die kontinuierlich im Kofferraum laufen.

Aufgrund dieses überaus hohen Energiebedarfs und der Komplexität des Gesamtsystems sind verteilte Architekturen tatsächlich ineffizient und für das fahrerlose automatisierte Fahren gemäß Level 5 nicht ausreichend.

Neuronale Netze reduzieren Leistungsaufnahme

Die meisten Fachleute sind sich darin einig, dass beim Einsatz von Level-5-Fahrzeugen im Massenmarkt grundsätzlich alle betriebskritischen automatisierten Fahrsysteme Zugriff auf einen einheitlichen, vollständigen Datensatz haben werden. Genau darauf beruht der Ansatz von Siemens. DRS 360, eine Plattform für autonomes Fahren aus dem Produktportfolio von Mentor, kombiniert Sensordaten, die in verschiedenen Typen und Formaten (2D, 3D, ADC etc.) sowie unterschiedlichen Bildfrequenzen verfügbar sind, zu einer zeitlich und räumlich synchronen Ansicht der Fahrzeugumgebung. Diese Modellierung enthält Informationen über die räumliche Lage, die Geschwindigkeit und nahegelegene Objekte. Die Effizienz der Software beruht auf neuronalen Netzen, die die Leistungsaufnahme auf 100 W und weniger begrenzen.

Ein zentralisiertes System bietet Automobilherstellern den weiteren Vorteil der verbesserten Emulation bei der Entwicklung von Prototypen und Produktionseinheiten. Die Siemens-Plattform dürfte sich auch beim Ausführen der vielen Simulationen als nützlich erweisen, die erforderlich sind, um die für das autonome Fahren entscheidenden Sensoren zu testen – sowohl einzeln als auch als Gesamtsystem. Dieses smartere Sensor-Gesamtsystem ist zum Schluss natürlich auch in realen Szenarien zu testen.

 

Für die Simulation sind realistische Sensor-Rohdaten essenziell. Mehr Details dazu beschreibt der Beitrag auf der nächsten Seite.

Simulation mit realistischen Sensor-Rohdaten

Bild 3: Mit Prescan lassen sich simulierte, aber realistische und physikalisch fundierte Sensordaten für die Modellierung erzeugen.

Bild 3: Mit Prescan lassen sich simulierte, aber realistische und physikalisch fundierte Sensordaten für die Modellierung erzeugen. Mentor Graphics

Ein weiterer Bestandteil der Siemens-Entwicklungsumgebung für autonome Fahrzeuge ist das Prescan-Tool von Tass International. Damit sind Kunden unter Zuhilfenahme der DRS-360-Plattform in der Lage, verschiedene Fahrsituationen zu simulieren, zu testen und zu verfeinern – solange, bis das Sensorsystem stabil ist.

Prescan erzeugt simulierte, äußerst realistische, physikalisch fundierte Sensor-Rohdaten für eine unbegrenzte Anzahl an möglichen Fahrszenarien, Verkehrssituationen und anderen Parametern (Bild 3). Danach geschieht die Überführung der Prescan-Simulationsdaten der Lidar-, Radar- und Kamerasensoren in die DRS-360-Plattform, die sie in Echtzeit zu einem hochauflösenden Modell der Fahrzeugumgebung und der Fahrbedingungen zusammensetzt.

Entwicklungsteams können die hohe Auflösung der Simulation und die leistungsstarke Datenverarbeitung der DRS-360-Plattform nutzen, um proprietäre Algorithmen für sicherheitskritische Aufgaben zu testen und zu verfeinern, beispielsweise zur Objekterkennung und Fahrstrategie. Letztendlich wird diese Toolkombination noch durch andere Siemens-Produkte, insbesondere Teamcenter und Polarion-Software, ergänzt, um weitere Anforderungen hinsichtlich PLM (Pulsweitenmodulation) und Management abzudecken.

Mike Santarini

EDA Content Director, Corporate Marketing bei Mentor Graphics

Andrew Macleod

Director Automotive Marketing bei Mentor, a Siemens Business

(na)

Sie möchten gerne weiterlesen?

Unternehmen

Mentor Graphics (Deutschland) GmbH

Arnulfstraße 201
80634 München
Germany