Die Gründe, die zur Entwicklung der MicroAutoBox Embedded SPU führten, sind offensichtlich: Angetrieben von der Vision des unfallfreien und autonomen Fahrens haben sich Fahrerassistenzsysteme und hochautomatisierte Fahrzeuge zu den Hauptinnovationstreibern in der Automobilindustrie entwickelt. Es existiert quasi ein Wettlauf, als erster Anbieter entsprechende Funktionen in Serienfahrzeugen bereitzustellen. Doch der zunehmende Wettbewerbsdruck stellt die Automobilhersteller vor die Herausforderung, die immer komplexer werdenden Algorithmen in schnellen Iterationen zu entwickeln und frühzeitig im Fahrzeug zu erproben.

MicroAutoBox Embedded SPU

MicroAutoBox Embedded SPU für das Prototyping im Bereich der Sensordatenfusion. dSPACE

Es besteht somit ein hoher Bedarf an leistungsfähigen Prototyping-Systemen, mit denen die Funktionsentwicklung für das automatisierte Fahren nicht nur komfortabel umgesetzt, sondern auch erheblich beschleunigt werden kann. Basierend auf einer Vielzahl von Umfeldsensoren wie Kamera-, Radar-, Lidar- und Ultraschallsensoren müssen die entsprechenden Algorithmen jederzeit eine zuverlässige 360°-Erkennung und Bewertung der Fahrzeugumgebung sicherstellen. Dabei ist der Einsatz verschiedener Messprinzipien notwendig, um Schwächen einzelner Sensoren durch Technologien anderer Messprinzipien zu kompensieren. Beispielsweise können Kameras sehr gut Merkmale, Objekte und Veränderungen in Bildern erkennen, aber bei Dunkelheit oder direkter Sonneneinstrahlung existieren Einschränkungen. Radarsensoren sind dagegen robust gegenüber Wettereinflüssen und ideal zur Ermittlung von Abstand und Differenzgeschwindigkeit, haben aber Schwächen bei der Winkelauflösung und der Detailgüte. Hier punktet unter anderem der Lidarsensor. Beim hoch- und insbesondere vollautomatisierten Fahren ist zudem eine mehrfache Redundanz notwendig, um die Ausfallsicherheit des Systems zu garantieren. Daher kommen absehbar Kamera-, Radar- und Lidarsensoren parallel zum Einsatz.

Wirkkette beim hochautomatisierten Fahren

Eckdaten

Die MicroAutoBox Embedded SPU ermöglicht in Kombination mit der Software-Entwicklungsumgebung RTMaps das zeitsynchrone Erfassen, Verarbeiten, Fusionieren und Wiedergeben großer Mengen an Sensordaten. Das robuste und kompakte System unterstützt die Funktionsentwicklung für automatisiertes Fahren genauso wie für autonome und selbstfahrende Fahrzeuge: Das Gesamtsystem aus MicroAutoBox II und Embedded SPU stellt nach Angaben von dSPACE „eine neue Messlatte für das fahrzeuggestützte Prototyping von Multisensoranwendungen“ dar. Die Markteinführung des Systems ist für Sommer 2017 geplant.

Die Wirkkette beim hochautomatisierten Fahren besteht in der Regel aus verschiedenen Abarbeitungsstufen. Zunächst ist eine Vorverarbeitung der Sensorrohdaten erforderlich. Ziel ist es dabei, aus den einzelnen Bildern oder Reflexionspunkten Merkmale, statische und dynamische Objekte sowie Freiräume in der Umgebung des Fahrzeugs zu detektieren. In der darauffolgenden Stufe werden die Ergebnisse der einzelnen Sensoren fusioniert und zu einem konsistenten Umfeldmodell zusammengeführt. Wichtig dabei ist die zeitliche Synchronisierung und Korrelation der Sensordaten. Zudem ist die Kenntnis der genauen Position und Fahrspur des eigenen Fahrzeugs auf der Straße, basierend auf einer hochgenauen digitalen Karte, erforderlich (Lokalisierung).

Bei der Freiraumerkennung wird die Umgebung des Fahrzeugs in kleine Abschnitte eingeteilt und jedem Abschnitt eine Wahrscheinlichkeit zugeordnet, ob sich darin ein Hindernis befindet oder nicht. Dynamische Objekte sind zum Beispiel durch die Attribute Abstand, relative Geschwindigkeit, Azimutwinkel, Erkennungswahrscheinlichkeit, Dimension und Objekttyp (zum Beispiel Fußgänger, Pkw oder Lkw) gekennzeichnet. Das Umfeldmodell liefert entsprechend konsolidierte und permanent aktualisierte Informationen über die Fahrzeugumgebung. Darauf basierend erfolgt dann eine Situationsanalyse, die Planung der möglichen Fahrtrajektorien, die Entscheidung für ein bestimmtes Manöver und letztendlich die Längs- und Querregelung mit Eingriffen in Lenkung, Bremse und Antriebsstrang.

In diesem Zusammenhang kommen auch Deep-Neural-Networks- und Deep-Learning-Algorithmen (künstliche Intelligenz) zur Mustererkennung sowie absehbar auch zur intelligenten Entscheidungsfindung zum Einsatz.

Seite 1 von 41234