Im Parkhaus der Zukunft navigiert das Fahrzeug selbständig

(Bild: ASAP/Shutterstock)

Im Parkhaus der Zukunft werden Fahrzeuge durch eine Kommunikation mit der Infrastruktur selbst Teil des Parkhauses. Das erhöht zum einen den Komfort – das Fahrzeug wird vor dem Parkhaus abgestellt und parkt autonom ein. Zum anderen bedeutet die Einbindung der Fahrzeugsensoren in die Infrastruktur neue Optimierungspotentiale für die Sicherheit: durch eine Sensordatenfusion können neue Funktionen umgesetzt werden, die auf komplexe Algorithmen zurückgreifen.

Für das autonome Parken im Parkhaus der Zukunft bedarf es jedoch neben einer Vielzahl an Fahrzeugumfeldsensorik einer umfänglichen Absicherung autonomer Fahrfunktionen, darunter Notbremssystem, Objekt- sowie Personenerkennung und Parkassistenzsystem. Für diese Absicherung arbeitet ASAP in einem internen Entwicklungsprojekt an einer neuen Lösung, die Testautomatisierung und virtuelle Absicherung miteinander verknüpft, und auf diese Weise eine realitätsnahe Durchführung in VR ermöglicht: im virtuellen Parkhaus sollen virtuell aufgebaute Fahrzeuge durch den Einsatz von Machine Learning selbständig das Navigieren und Parken sowie den dafür benötigten Umgang mit der nachgebildeten Sensorik erlernen. Das Ziel: nach erfolgreicher Validierung werden die gewonnenen Daten aus der Simulationsebene auf echte Hardware übertragen – und stehen damit auch in der Realität zur Verfügung.

Virtuelle Welt vs. Realität

Eck-daten

Für die Entwicklung und Absicherung autonomer Fahrfunktionen in einem Parkhaus sind eine Unmenge von Daten von der Fahrzeugumfeldsensorik notwendig. Wie erhält man die? Nun, man kann sogenannte Innovationsfahrzeuge aufbauen und in einem echten Parkhaus fahren lassen, dass ist teuer und zeitaufwendig. Die Firma ASAP setzt deshalb in einem Entwicklungsprojekt auf Virtual Reality und Künstliche Intelligenz. Damit lassen sich die notwendigen Daten nicht nur schneller gewinnen, sondern auch flexibel auf unterschiedliche Sensorsysteme reagieren.

In aktuellen Forschungsprojekten werden zur Entwicklung des autonomen Parkvorgangs bereits hochkomplexe Algorithmen in Kombination mit diversen Sensoren genutzt. Dafür ist es notwendig, spezielle Innovationsfahrzeuge aufzubauen, die sich in realen Parkhäusern anhand groß angebrachter QR-Codes orientieren. Unter Verwendung einer solchen restriktiven Simulationsumgebung kann die eingesetzte Fahrzeugumfeldsensorik dabei in begrenzter Weise konfiguriert werden. Weshalb besteht also die Notwendigkeit für ein Entwicklungsprojekt zu einem neuen Ansatz, bei dem die Absicherung in ein virtuelles Parkhaus verlagert wird? Grund hierfür ist zum einen, dass die Absicherung mit echten Prototypen nicht nur zeitintensiv, sondern auch kostspielig und vergleichsweise unflexibel ist: im realen Versuch muss das Fahrzeug nach jedem Testlauf wieder an die Ausgangsposition gefahren werden – eine ständige Betreuung ist notwendig. Zudem können die Sensorik oder die Verarbeitung ihrer Daten durch die Fahrfunktionen beim Test versagen, was in kostspieligen Schäden am Fahrzeug oder der Testumgebung resultieren würde. Auch die kontinuierliche Anpassung der Innovationsfahrzeuge hinsichtlich bestmöglicher Konfigurationen der Fahrzeugumfeldsensorik ist zeit- und kostenintensiv.

Autonomous Driverless Car

Die richtige Konfiguration der Fahrzeugumfeldsensorik ist entscheidend für hochautomatisierte Fahrfunktionen ASAP/Shutterstock

Hier setzt das ASAP-Entwicklungsprojekt an: mit der neuen Methode lassen sich die aufgeführten Nachteile der Absicherung in realer Testumgebung künftig umgehen und gleichzeitig KI-Methoden wie Machine Learning gewinnbringend einsetzen. Für die Entwicklung und Absicherung autonomer Fahrfunktionen und zur Realisierung des Parkhauses der Zukunft bedeutet dies einen deutlichen Gewinn an Schnelligkeit, Flexibilität sowie Kosteneffizienz. Gleichzeitig ermöglicht der Einsatz der VR-Technologie in der Absicherung die Immersion, selbst in der VR-Szene anwesend zu sein. Die Entwickler können die Testfahrten demnach virtuell erleben und die gesamte VR-Szene beliebig oft aus allen Blickwinkeln betrachten, um sie schließlich bewerten zu können.

Konditioniert auf korrektes Einparken

Für die Entwicklung und Absicherung autonomer Fahrfunktionen im virtuellen Raum werden zunächst das Innovationsfahrzeug, das Parkhaus sowie darin eingesetzte Objekte und auch Personen virtuell nachgebildet. Zur virtuellen Darstellung großer und komplexer Datenmengen mit hoher Performance wird reale Hardware in VR im Verhältnis 1:1 nachgebildet und reale Software mittels einer Schnittstelle mit der VR-Szene verbunden. Bei der Erstellung des virtuellen Fahrzeugs können CAD-Daten realer Fahrzeuge genutzt werden, während für das virtuelle Parkhaus entweder ein 3D-Scan eines realen Parkhauses oder ein fiktives Parkhaus erstellt wird. Beim Aufbau des virtuellen Innovationsfahrzeugs besonders wichtig: die eingesetzte Fahrzeugumfeldsensorik – Kameras, Radar- und Lidarsysteme, Weitsichtradar und Ultraschalltechnik. Die richtige Konfiguration der Fahrzeugumfeldsensorik, insbesondere Ausrichtung und Anzahl, sowie ihre zuverlässige Funktionalität stellen Grundvoraussetzungen für automatisierte Fahrfunktionen dar – denn auf Basis der über die Sensorik aufgenommenen Informationen berechnen die Steuergeräte im autonomen Fahrzeug beispielsweise, ob Personen oder Objekte in Sicht sind, also der Einparkvorgang durchgeführt werden kann.

Beim Aufbau des virtuellen Fahrzeugs kommt zusätzlich künstliche Intelligenz, genauer Machine Learning, zum Einsatz: auf diese Weise wird es dazu befähigt, den richtigen Umgang mit den Eingangsdaten der Sensorik selbst zu erlernen und mit ihrer Hilfe fehlerfrei ein- sowie auszuparken. Durch den Einsatz von Machine Learning sucht sich das System selbständig den besten Algorithmus zur Nutzung der eingehenden Sensorik-Daten zum autonomen Fahren und Parken. Das Machine Learning konditioniert den Algorithmus auf die bestmögliche Nutzung der Eingangsdaten, indem es immer dann eine Belohnung erteilt, wenn das Navigieren durch sowie das Einparken im virtuellen Parkhaus fehlerfrei erfolgen.

Da die Entwickler die während des autonomen Parkvorgangs zu belohnenden Punkte frei festlegen können, lassen sich zudem weitere Parameter belohnen und entsprechend anlernen. So lässt sich der Algorithmus auch dahingehend optimieren, dass der autonome Parkvorgang nicht nur fehlerfrei, sondern auch möglichst schnell abgeschlossen wird. Zum Anlernen und Optimieren der Algorithmen sind idealerweise tausende Testfahrten und die damit verbundene Aufnahme und Auswertung von Sensordaten notwendig. Mithilfe der Absicherung in VR lässt sich dieser Prozess künftig erheblich beschleunigen.

Virtuelles Lernen – Reales Anwenden

Für die Durchführung der Testläufe im virtuellen Parkhaus legt der Entwickler schließlich lediglich eine beliebige Anzahl verschiedener Sensorkonfigurationen für das virtuelle Fahrzeug fest. Ohne weiteres Zutun des Entwicklers erfolgt dann der Validierungsprozess im virtuellen Parkhaus: die Eingangsdaten der jeweiligen Fahrzeugumfeldsensorik-Konfiguration werden zur Navigation zu einem freien Parkplatz und dort zum Einparken sowie zum anschließenden Ausparken und der Navigation zum Ausgang genutzt. Durch die Anwendung von Machine Learning ist der Algorithmus in der Lage, aus Fehlern – etwa einer Kollision mit einem Objekt in der Testumgebung – zu lernen und diese bei darauffolgenden Testläufen gezielt zu vermeiden. Nach Durchlauf aller Testläufe können die Entwickler dann anhand der aufgezeichneten Testergebnisse auswerten, ob die vorgeschlagenen Sensor-Konfigurationen zum Erfolg geführt haben beziehungsweise können entsprechende Änderungen an ihnen vornehmen. Der Algorithmus, der auf diese Weise in sicherer, da virtueller, Welt angelernt wurde, kann schließlich auf echte Hardware übertragen werden und so auch in der Realität Anwendung finden.

Autonomous Driverless Car

Die richtige Konfiguration der Fahrzeugumfeldsensorik ist entscheidend für hochautomatisierte Fahrfunktionen ASAP/Shutterstock

Durch die Verlagerung der Absicherung in ein virtuelles Parkhaus haben die Entwickler während der Testläufe zudem die Möglichkeit zum Echtzeiteingriff: über eine VR-Brille und am Körper angebrachte Sensoren können sie sich selbst als Avatare im Parkhaus sehen. Dabei sind sie in der Lage, ihre Bewegungen aus der realen in die virtuelle Welt zu transferieren – die Bewegungsübertragung findet im Verhältnis 1:1 statt. Auf diese Weise können sie in Echtzeit beispielsweise die Sensordaten des virtuellen Fahrzeugs als Passant beeinflussen – und das Fahrzeug so auf seine Reaktion, also etwa die Funktionstüchtigkeit der Personenerkennung, testen. Die Entwickler haben damit die Möglichkeit, in die virtuelle Umgebung einzutauchen und unter Zuhilfenahme diverser virtueller Tools neue Fahrfunktionen aus erster Hand abzusichern. Die Freiheiten der virtuellen Testumgebung bedeuten dabei auch, dass Sensor-Konfigurationen nicht nur ohne großen Aufwand getestet werden können und jederzeit frei modifizierbar sind – auch noch nicht existierende Sensoren lassen sich so virtuell erdenken und umsetzen sowie schließlich auf Basis der Testergebnisse real nachbilden.

Sichtbar machen, was sonst verborgen ist

Neben der Möglichkeit des Echtzeiteingriffs sowie den Freiheiten, die eine virtuelle Testumgebung der Entwicklung bietet, weist der neue Ansatz weitere Vorteile für die Entwicklung und Absicherung hochautomatisierter Fahrfunktionen auf: zum einen lassen sich künftig Bauteil-Bibliotheken für virtuelle Sensoren aufbauen. Ziel hiervon ist es, wie bei einem Baukasten-System in der Produktion, wiederkehrende Elemente jederzeit bei Bedarf abrufen zu können. Dadurch ist es möglich, bei der Erstellung der Sensorkonfigurationen häufig benötigte Elemente innerhalb weniger Minuten virtuell einzusetzen und direkt hinsichtlich ihrer Auslegung zu prüfen. Indem wiederkehrende Komponenten nicht bei Bedarf stets neu virtuell konstruiert werden müssen, lässt sich die Entwicklung weiter beschleunigen. Ein weiterer Vorteil ist, dass sich die Entwickler mit der VR-Brille – anders als in der Realität – die Abstrahlwinkel der Sensorik anzeigen lassen können. Dadurch wird sichtbar, wie viel ihrer Umgebung die aktuell getestete Sensorik-Konfiguration erfassen kann und dementsprechend auch, ob beispielsweise die Platzierung der Sensorik im virtuellen Fahrzeug angepasst werden muss. Denn für stets freie Sicht aller Sensoren und die damit verbundene Verlässlichkeit der Fahrfunktionen, müssen sich die Abstrahlwinkel überschneiden, sodass 100 Prozent des Fahrzeugumfelds jederzeit eindeutig erkannt werden. Zusätzlich zur Möglichkeit der Anzeige dieser in der Realität nicht sichtbaren Details, sind alle Parameter im virtuellen Parkhaus jederzeit anpassbar – die Änderung von Form und Farbe anderer Fahrzeuge und Schilder, die Platzierung von Hindernissen oder das Kreieren spezieller Situationen mit Passanten sind problemlos möglich. Dadurch lassen sich die Funktionen weitaus tiefer und umfassender absichern, als es unter realen Umständen und innerhalb eines annehmbaren Kosten- und Zeitrahmens möglich wäre. In Summe bedeuten all diese Faktoren, dass sich die Absicherung der Fahrfunktionen mit dem neuen Ansatz des virtuellen Parkhauses schneller, kostengünstiger und auch flexibler umsetzen lassen als mit den aktuellen Forschungsansätzen.

Möglichkeiten: unbegrenzt

ASAP_shutterstock_394697902_ret

Mit der VR-Brille lassen sich beispielsweise die Abstrahlwinkel der Sensorik anzeigen. ASAP/Shutterstock

Für die zuverlässige Absicherung autonomer Fahrfunktionen, für die eine schier unendliche Anzahl an Parametern und Kombinationen selbiger validiert werden müssen, bedeutet das virtuelle Parkhaus einen Vorsprung in der Entwicklung. Die einzige Grenze für die Entwicklung und Absicherung in VR besteht letztendlich in der Vorstellungskraft und Kreativität des Entwicklerteams – denn im virtuellen Parkhaus lässt sich jede nur erdenkbare Kombination an Parametern realisieren. Das bedeutet auch, dass im virtuellen Parkhaus weitere Zukunftsszenarien getestet werden können: denkbar ist beispielsweise, dass autonome E-Fahrzeuge künftig nicht nur selbst im Parkhaus navigieren und auf einem freien Platz parken, sondern auch einen Platz mit induktiver Ladeplatte auswählen, damit der Fahrer bei seiner Rückkehr mit voll aufgeladener Batterie weiterfahren kann. Darüber hinaus besteht künftig die Möglichkeit, real durchgeführte und aufgezeichnete Testfahrten virtuell abzubilden, indem die real aufgenommenen Sensordaten kontinuierlich dargestellt werden und so die Bewegung des Testfahrzeugs durch das Parkhaus aufzeigen. Auf diese Weise ließen sich ursprünglich reale Testfahrten beliebig oft abspielen und gleichzeitig an signifikanten Punkten pausieren, um mögliche Fehlerquellen im Ablauf besser identifizieren zu können. Ein weiterer Vorteil: die Testfahrten lassen sich beliebig oft aus Sicht des Fahrers realitätsnah wiedererleben und bieten Experten damit eine detaillierte Diskussionsgrundlage zur Auswertung der Testfahrten sowie ein nachvollziehbares Präsentationsmedium.

Jan Hamann

(Bild: ASAP)
Projektleiter Elektronik- und Softwareentwicklung bei ASAP

Timo Nels

(Bild: ASAP)
Leiter Elektronikentwicklung | Bedien- und Anzeigesysteme bei ASAP

(wi)

Sie möchten gerne weiterlesen?