Bertrand stellt auf der CES 2020 die Plattform Harri vor

Bertrand stellt „Harri“ zur Demonstration von CASE-Anwendungen vor. (Bild: Bertrandt)

Die rasante Entwicklung der Fahrerassistenzsysteme beschleunigt den Weg zur fahrerlosen Mobilität. Deep Learning, aber auch Sensorik und funktionale Sicherheit sind wichtige Treiber hin zum autonomen Fahren. Bertrandt unterstützt diese Entwicklung mit der Innovationsplattform Harri (Eigenschreibweise HARRI) und dem Projekt „Park and Charge“. Dazu zählen die Entwicklung von Algorithmen für die Sensorik zur Umfeld-Erkennung und die Datenanalyse mithilfe des maschinellen Lernens als auch die Entwicklung komplexer Fahrfunktionen.

Für den Use Case wurde eine cloudbasierte Plattform geschaffen

Bild 1: Für den Use Case Connectivity besteht eine cloudbasierte Plattform. Bertrandt

Die Planung und Ausführung der autonomen Bewegung ist ein zentrales Thema. Das Unternehmen hat ein intelligentes autonomes Fahrsystem entwickelt, das durch Informationen aus dem Umfeld selbständig reagieren und entscheiden kann. Der Fokus lag dabei auf der Software-Entwicklung. Ziel des Projekts ist es, das Fahrzeug autonom und sicher zu einer vorgegebenen Parkmöglichkeit zu fahren, selbständig den Ladevorgang zu starten und nach Befehl wieder zurückzuholen. Dies erfordert die Auseinandersetzung mit vielen der Problemstellungen, die in direktem Zusammenhang mit dem öffentlichen Straßenverkehr stehen. Voraussetzung sind also die Möglichkeit einer hochgenauen Lokalisierung, einer Hinderniserkennung oder auch einer Problemstrategieplanung.

Umfelderkennung mittels diverser Sensoren

Eck-daten

Die auf der CES 2020 vorgestellte Innovations-Plattform Harri soll Entwicklern dabei helfen, die vier CASE genannten Megatrends der Automobilbranche (Digitalisierung, autonomes Fahren, Vernetzung und Elektromobilität) sinnvoll zu kombinieren. Ziel ist es, anhand der Plattform neue Mobilitätskonzepte zu entwickeln. Harri basiert auf einer Domain-Architektur und nutzt zur Kommunikation mit der Außenwelt lediglich ein zentrales Steuergerät.

Wichtige Themen sind neben der Lokalisierung beispielsweise Umfeld-Erkennung, Trajektorien-Planung, Längs- und Querführung sowie weitere übergeordnete Funktionen. Zum einen müssen die Anwender jederzeit wissen, wo sie sich befinden und wie das Fahrzeug positioniert ist. Die Lokalisierungs-Funktion von Harri soll dies umsetzen. Die Umfeld-Erkennung hilft dabei, mittels diverser Sensoren die Umgebung zu erfassen und zum Beispiel Objekte zu erkennen und zu klassifizieren. Zum anderen sind diese Sensoren auch ein wesentlicher Bestandteil davon, Harri hochgenau zu lokalisieren. Bekommt die Plattform durch den Besitzer des Fahrzeugs einen Fern-Anforderungsbefehl, so nutzen die Ingenieure jegliche Informationen, die über das Umfeld bekannt sind, in der Trajektorien-Planung, die eine Fahrstrategie berechnet, um das Fahrzeug sicher zur Parkmöglichkeit zu navigieren. Die Längs- und Querführung hat die Aufgabe, der vorgegebenen Trajektorie, also dem Bewegungspfad, zu folgen. Dies erfordert Regelalgorithmen auf sehr hohem Niveau für Lenkung, Antrieb und Bremse.

HMI und cloudbasierte Plattform

Displays und Maschinen sind zunehmend komplexer und intelligenter. Ob und wie gut der Umgang damit ist, hängt von der Qualität der Mensch-Maschinen-Schnittstelle ab. Das primäre Ziel des Unternehmens war es, ein intuitives Display für Harri zu entwerfen. Es ging einerseits darum, wie sich Displays technisch gestalten lassen, aber auch um nutzerseitige Themen wie die Bewertung solcher Schnittstellen. Ein Schwerpunkt war die Entwicklung eines Anzeige-Bedienkonzeptes für die Plattform, ein anderer war die App-Entwicklung. So lässt sich beispielsweise der Ladezustand eines Fahrzeugs abfragen oder der Befehl übermitteln, zu einem festen Zeitpunkt an einen definierten Ort zu fahren.

Um die Architektur für das autonome Fahren zu entwickeln, galt es, Übertragungswege zu sichern sowie eine cloudbasierte Plattform zu konzipieren. Mit dieser Plattform lassen sich zum Beispiel Fahrzeugdaten über Sensoren aufzeichnen und in der Microsoft Cloud Azure speichern sowie auswerten. Daraus entwickelte sich dann auch eine lösungsorientierte Plattform, bei der Mitarbeiter aus dem Bereich Connectivity dabei helfen, mehrere Fahrzeuge oder Fahrzeugflotten an die Bertrandt-Cloud anzubinden; ebenso zusätzliche Geräte wie Mobiltelefone, die als HMI dienen und ein Fahrzeug nach Benutzer-Bestätigung sicher in den autonomen Vorgang überführen. Darüber hinaus bietet die „Automotive Analytics and Development Platform“ eine Möglichkeit, um Sensordaten zu analysieren und Algorithmen unter Einsatz künstlicher Intelligenz zu entwickeln (Bild 1).

Das „Park and Charge“-Szenario

Bild 2: Ein exemplarischer Einparkvorgang ist anhand simulierter Daten dargestellt.

Bild 2: So lässt sich beispielsweise ein Einparkvorgang anhand simulierter Daten darstellen. Bertrandt

Im Park-and-Charge-Szenario übermittelt Harri eine empfohlene Route zur Parkmöglichkeit über die Bertrandt-Cloud. Diese hochgenau vermessene Route integriert das System in die lokale Umfeldkarte, die Lidar- und Ultraschall-Sensoren erzeugen. Der eigenentwickelte Trajektorienplanungs-Algorithmus bevorzugt die übermittelte Route und bezieht diese anschließend für die Berechnung der Trajektorie zum Zielpunkt mit ein. Mit dem entwickelten Algorithmus lässt sich die empfohlene Route in Echtzeit anhand der Umfelddaten optimieren und das Fahrzeug anschließend selbständig zur Zielvorgabe fahren (Bild 2).

Sobald das Fahrzeug die Endposition erreicht hat, validiert die Umfeld-Sensorik die vorgegebene Parklücke und berechnet die Trajektorien für den Einparkvorgang. Die Ausrichtung der Parklücke spielt dabei keine Rolle. Die Vorgabe der Route ist bei der Kartendarstellung dabei als Vertiefung und die Wände und Fahrzeuge als Erhöhung dargestellt. Daraus geht hervor, in welchen Bereichen sich das Fahrzeug autonom, ohne externe Vorgaben, bewegen kann. Des Weiteren ist es möglich, Zonen zu definieren, die das Fahrzeug nicht befahren darf. Hierzu zählen zum Beispiel die Gegenfahrbahn, Fußgängerüberwege oder Bürgersteige.

Die kamerabasierte Objekterkennung nimmt Festkörper vor einem homogenen Hintergrund auf und schneidet diese automatisch entsprechend den Bildverarbeitungsalgorithmen aus. Die ausgeschnittenen Objekte lassen sich abschließend in verschiedene Hintergrundbilder der Ziel-Umgebung (zum Beispiel Straßenszenen) einfügen. Mit Data Augmentation lassen sich Hintergrund und das Aussehen der Objekte zusätzlich variieren, um einerseits verschiedene Umwelteinflüsse simulieren zu können und andererseits eine Überanpassung (Overfitting) beim Trainieren zu vermeiden. Bild 3 zeigt die zu erkennenden Objekte, die das Fahrzeug im Park-and-Charge-Beispiel erkennen muss. Dabei dienen die Objekte zusätzlich als Landmarken-Referenzpunkte, sodass eine Verbesserung der Positionsbestimmung des Fahrzeugs gelingt.

Schaltet das Backend in dem Fahrszenario die verwendete IoT-Ampel auf Grün, soll das Fahrzeug den Wechsel der Ampelphase erkennen können und die Fahrt fortsetzen. Aufgrund der Struktur von Faltungsnetzwerken sind für das Training lediglich lokale Merkmale relevant, nicht jedoch globale Bildzusammenhänge wie die Position im Gesamtbild. Das Training des neuronalen Netzes erfolgte zunächst nur mit künstlich erzeugten Daten. Die anschließende Validierung und das Feintuning erfolgte mit einer geringen Menge an realen Daten aus eigenen Fahrzeugaufnahmen.

Domain-Architektur verteilt die Funktionen

Die oben beschriebenen Algorithmen und Funktionen sind allerdings auf einem Steuergerät zu integrieren. Harri nutzt eine Domain-Architektur, bestehend aus fünf Steuergeräten (Bild 4). Daraus folgt die Integration der Algorithmen für die autonomen Fahrfunktionen auf dem ADC (Autonomous Drive Domain Controller). Für die Kommunikation zwischen den Domain-Rechnern kommt Automotive-Ethernet zum Einsatz. Mit dem Protokoll SOME/IP besteht auf Datenebene eine Service-orientierte Architektur (SOA).

Bild 3: Im unteren Bild ist ersichtlich, dass die Relationen und Positionen der eingefügten Objekte zu denen im Hintergrund nicht realistisch dargestellt werden.

Bild 3: Im unteren Bild ist ersichtlich, dass die Relationen und Positionen der eingefügten Objekte zu denen im Hintergrund nicht realistisch dargestellt werden. Bertrandt

Entgegen der gängigen Praxis in der Automobilentwicklung nutzt die Plattform aufgrund ihrer Domain-Architektur nur ein zentrales Steuergerät zur Kommunikation mit der Außenwelt. Das ordnungsgemäße Zusammenspiel mit dem Domaincontroller überwacht der VSM (Vehicle Statusmanager). Durch die zentrale Rolle des CDC (Connectivity Domain Controller) und die sich daraus ergebende hohe Integration im Gesamtsystem stellt die Absicherung des Gerätes eine wichtige Herausforderung dar. Das bedeutet, dass der CDC für alle Steuergeräte, die Daten aus der Cloud benötigen, sich um die Aggregation und Bereitstellung innerhalb des Fahrzeugs kümmert.

Um die maximale Integrität des Systems zu gewährleisten, kommt Yocto Linux und zum Schutz des CDC vor Manipulationen Secure Boot zum Einsatz. Um Identitätsnachweise gegenüber der Cloud vor dem Auslesen durch Dritte zu schützen, verschlüsselt das System den internen Speicher zusätzlich.

Nutzung von Containern vereinfacht das Software Deployment

Trotz der Sicherheitsvorgaben ist es mithilfe von Containern machbar, flexibel unterschiedliche Anwendungen bereitzustellen. Durch Nutzung von Azure IoT Edge ist es möglich, sowohl Updates als auch komplett neue Anwendungen OTA (Over The Air) im CDC zu installieren und deren Status zu überwachen.

Als Kommunikation mit der Cloud erfolgt aktuell noch Mobilfunk der 4. Generation (LTE). Die BAC (Bertrandt Automotive Cloud) kann unter Verwendung einer eigenen PKI (Public Key Infrastructure) den Kommunikationskanal absichern. Sie stellt außerdem Dienste wie das Flottenmanagement bereit und ist Bertrandts Lösung für Automotive Services und der einzige Anlaufpunkt für Harri. Hier sind Echtzeitdaten gespeichert wie zum Beispiel der Vehicle-Status, aktuelle Softwareversionen und die Position.

Bild 4: Harri verfügt über eine Domain-Architektur aus fünf Steuergeräten.

Bild 4: Harri verfügt über eine Domänen-Architektur auf Basis von fünf Steuergeräten. Bertrandt

Auf Grund der im Auto anfallenden riesigen Datenmengen ist es unmöglich, alle Daten an die Cloud zu senden. Jede Anwendung der Plattform stellt eine beliebige Anzahl an Daten für die Cloud bereit. Über das Frontend kann der Anwender konfigurieren, welche dieser Daten er tatsächlich in die Cloud hochladen möchte. Darüber hinaus stellt die BAC für das Fahrzeug wichtige Services wie positions- und situationsbedingte Kartenupdates auf Basis des NDS-Formats (Navigation Data Standards) bereit.

In dem Park-and-Charge-Szenario fährt die Plattform das Fahrzeug teilautonom zum Übergabebereich des Parkplatzes und autonom auf dem Parkplatzgelände. Zur Ermöglichung der Interaktion zwischen Harri, seinem Fahrgast und dem Parkplatz stellt die BAC Schnittstellen zu weiteren Cloudservices bereit. So ist es möglich, dass der Fahrgast nach dem Aussteigen über eine App auf seinem mobilen Endgerät Harri dem Parkplatz übergibt.

Peter Schierkofer

Director Advanced Engineering and Autonomous Driving bei Bertrandt in Ehningen

Markus Wendl

Lead Engineer im ADAS-Bereich und Teilprojektleiter Software-Entwicklung für die autonomen Fahrfunktionen bei Bertrandt in Köln

Alexander Fellmet

Lead Engineer im Connectivity und Backend Umfeld bei Bertrandt in Düsseldorf

(aok)

Sie möchten gerne weiterlesen?

Unternehmen

Bertrandt AG

Birkensee 1
71139 Ehningen
Germany