Wie lässt sich die Funktionsabsicherung von ADAS rationell mit der erforderlichen Messgenauigkeit reproduzierbar ermitteln? EDAG hat hierfür mit Edscene ein automatisiertes System entwickelt. Durch die Automatisierung des Fahrbetriebs wird der Nutzerkreis von als fahrtauglich definierten Teilnehmern des Individualverkehrs auf einen Personenkreis erweitert, dem die Teilnahme bisher aufgrund gesetzlicher sowie gesundheitlicher Restriktionen nicht oder lediglich eingeschränkt möglich war. Die Umsetzung eines automatisierten Fahrbetriebs erfolgt in Analogie zum menschlichen Verhalten nach dem Prinzip Sehen–Verstehen–Handeln, um den Fahrbetrieb sowohl hinsichtlich Akzeptanz durch Nutzer als auch entsprechend den bestmöglichen Sicherheitsvorkehrungen zu gestalten.
Herausforderungen ADAS/AD
Die technische Adaption dieser Analogie subsumiert eine Wirkkette von Umfelderfassung und -wahrnehmung bis zur Situationsanalyse und -interpretation. Sie zielt auf die sukzessive Erhöhung automatisierter Längs- und Querführung am Ende dieser Wirkkette ab. Herzstück und gleichzeitig signifikante Herausforderung besteht in der ganzheitlichen, auf mehreren Datenquellen beruhenden Kreierung eines Umfeldmodells, in dem sich das Fahrzeug sowohl bewegen, als auch selbst positionieren kann.
Zum Einen gilt es, fahrzeuginterne Datenquellen aus passiven und aktiven Sensoren mit fahrzeugexternen Datenquellen aus Karten- und Positionierungsinstanzen zu fusionieren, um ein redundantes, gleichzeitig aus verschiedenen Quellen resultierendes Umfeldmodell sowie die Eigenpositionierung des Fahrzeugs hierin zu realisieren. Zum Anderen ergibt sich aufgrund physikalischer Gegebenheiten eine ausgeprägte Korrelation der fahrzeuginternen Sensoren mit externen Umwelteinflüssen hinsichtlich Sensorverfügbarkeit. Bei aller Quantität der redundant vorhandenen Umfeldinformationen bedarf es qualitativ hochwertiger Sensordaten.
Status Quo der realen Funktionsabsicherung bei der Objekterkennung
Hieraus ergeben sich technische Anforderungen an die Integration der Sensoren in das Gesamtfahrzeug, um adäquate Funktionalität und Verlässlichkeit zu gewährleisten. Dies gilt insbesondere hinsichtlich Objekterkennung sowie darauf basierender Kundenfunktion. Wie lassen sich diese relevanten Aspekte entwicklungsbegleitend testen, evaluieren und Rückschlüsse auf die funktionale Leistungsfähigkeit des Gesamtsystems ziehen?
Der Status Quo wird am speziellen Beispiel von ultraschallbasierten Sensorsystemen und darauf basierender Kundenfunktionen skizziert. Als Referenz dient ein Einparkmanöver vorwärts mit dem Egofahrzeug. Dieses ist mit Ultraschallsensoren sowie der Funktionalität PDC (Park-Distance-Control) als Einparkhilfe ausgestattet. Der Testablauf umfasst zwei sequenzielle, manuell durchgeführte Prüfschritte: die Objekterkennung gemäß ausgelegtem Erfassungsbereich der Sensoren sowie die PDC-Funktionalität auf Basis der erkannten Objekte.
Eck-Daten
Edscene dient zur direkten Funktionsabsicherung von Fahrerassistenzsystemen. Das System liefert die hierfür erforderliche Messgenauigkeit und reproduzierbare Ergebnisse. Prüfabläufe lassen sich damit automatisiert durchführen.
Die Durchführung erfolgt per sukzessiver manueller Bildung von Hindernissen mit Variation in der Hindernisart sowie in der dreidimensionalen Distanz des Hindernisses zu den Ultraschallsensoren. Eine zweite Person bewertet die aufgezeichneten Messergebnisse und gleicht sie mit den spezifizierten Systemvorgaben ab: Dies umfasst Distanzwerte zur Objekterkennung als Sensoreingangswert sowie die Aktuatoransteuerung zur Kundenfunktion als Steuergeräte-Ausgangswert.
Die Überprüfung des Systems zur Einparkhilfe auf ordnungsgemäße Funktionalität erfolgt durch einen Vergleich zweier Werte-Datensätze: Beim ersten Datensatz handelt es sich um die vom Sensor an die ECU auf dem Bussystem gesendeten Rohobjektwerte (ferne Distanz), die mit der tatsächlichen Positionierung des Hindernisses in der realen Welt verglichen werden. Der zweite Datensatz umfasst die von der ECU an die Aktuatoren (zum Beispiel Head-Unit und Audiosystem) gesendeten Anforderungen zur Ausgabe von Dauer-/Intervallton und Visualisierung der Distanzwerte, die im Vergleich zum gemessenen Distanzwert sowie den spezifizierten Schwellwerten des Systems vorliegen.
Zur Erhöhung der Testtiefe sowie zur Steigerung der verlässlichen Aussagekraft der Untersuchungen laufen die zuvor beschriebenen Testprozeduren für jedes Device-under-Test mit unterschiedlichen Rahmenbedingungen ab – und zwar in punkto Verbausituation wie Winkel und Position (Höhe, Abstand), Sensibilität der Sensoren (Schwellwertanpassungen), verschiedene Arten von Hindernissen (Größe, Formen und Material) sowie für Umwelteinflüsse wie variierende Lutftschalldämpfung (Heiß-/Kaltland).
Herausforderungen beim manuellen Test
Eine Betrachtung dieser technischen Prozedur aus der Managementperspektive gibt aber auch Anlass für berechtigte Kritik in punkto Qualität, Zeit und Kosten: So bringen manuelle Tests stets Durchführungsfehler und ausbleibende, eindeutige Reproduzierbarkeit mit sich. Manuelle Hindernisbildung, approximierte Reproduzierbarkeit und die sequenzielle Bearbeitung zuzüglich Auswertung der Messergebnisse beschäftigen pro Derivat zwei oder mehr Personen. Außerdem verursachen kombinierte Qualitäts- und Zeitaspekte – skaliert auf mehrere Derivate – signifikante finanzielle Aufwendungen für Testdurchführung, Peripherie und Reisen.
Lösungsansatz zur Testautomatisierung der Funktionsabsicherung
Die Optimierung exakt dieser Aspekte zu Qualität, Zeit und Kosten ermöglicht das System EDscene: Per Automatisierung des Testbetriebs erreicht es Qualitätssteigerungen bei gleichzeitiger Reduzierung des Zeitbedarfs und Minimierung der Kosten. Im Wesentlichen umfasst das System einen Fahrroboter und Software: Der Fahrroboter sorgt für die Bewegung auf einer Koordinatenmatte mit programmierbarer Routenführung, Geschwindigkeit, Haltung und aufsetzbaren Hindernissen – ergänzt um Egolokalisierung per Laser, während die Software-Toolchain für einen automatisierten Soll-Istwert-Abgleich sorgt.
Testautomatisierung im Vergleich
Der grundlegende Testablauf bleibt zwar gleich, aber der zuvor manuell durchgeführte Teil wird nun automatisiert, so dass der testenden Person eine überwachende Rolle zukommt. Das Testspektrum umfasst hierbei die Messungen des FoV (Field of View), die Detektion niedriger und schwer erkennbarer Hindernisse (DkH), die Prüfung auf unerwünschte Bodenreflektionen und Echos bei starkem Regen sowie die Performance der Rangierbremsfunktion (RBF).
Im Vergleich erzielte EDAG damit in einem Inhouse-Referenz-Projekt zum Test der ultraschallsensorbasierten Objekterkennung einige Optimierungen in punkto Qualität, Zeit und Kosten. So kam es zu einer Steigerung der Genauigkeit um etwa 48 % bei gegebener Reproduzierbarkeit, zu einer Verringerung des Zeitaufwands um ungefähr 33 % sowie zu einer Senkung des Personalaufwands um zirka 50 %.
Aus technischer Sicht lassen sich mehrere Effizienzfaktoren einstellen, insbesondere die Erhöhung der Datenqualität um etwa 50 %. Die per Automatisierung hergestellte Reproduzierbarkeit erlaubt bei gleichbleibender absoluter Anzahl der Messvorgänge eine Streuungsminimierung von etwa 48 % bei der Testdurchführung, etwa bei der Messung des Sensorsichtfelds (FoV, Field of View). Hierdurch wird eine relative Verlässlichkeit der Messergebnisse im Vergleich zu manuellem Testing erreicht, entsprechend lassen sich fundiert Aussagen über die Systemqualität hinsichtlich der Objekterkennung ableiten. Weil das Messsystem portabel und robust genug ist, eignet es sich auch zur Erprobung unter Extrembedingungen in Heiß- und Kaltländern, um so die Testtiefe zu erhöhen.
Aus ökonomischer Perspektive ergibt sich durch die Antiproportionalität zwischen der Gesamtanzahl der durchgeführten Testprozeduren und dem finanziellen Aufwand für die Testdurchführung & -auswertung eine Kostendegression. Maßgeblich hierfür ist die Skalierung variabler Kosten (Zeitaufwand: -33 % und Personalaufwand: -50 %) bei verhältnismäßig gleichbleibenden Fixkosten (Equipment, Messtechnik-Peripherie) über die Maximierung der durchgeführten Projekte. Ein Projekt kann hier eine derivatespezifische Applizierung mit Fokus auf dem Test der ultraschallsensorbasierten Funktionen sein.
Weiterentwicklungen von Edscene
Bisher ist Edscene auf ultraschallbasierte Sensorsteuergeräte ausgerichtet, aber aus folgenden Gründen erweitert EDAG das System auch auf ECUs, die mit anderen Sensoren arbeiten: So erfordert eine Erhöhung des Automatisierungsgrades den redundanten Einsatz von Sensoren zur Erfassung der Umwelt, insbesondere Radar- & Lidarsysteme. Durch die Vielzahl der Sensorsysteme sowie der darauf basierenden Kundenfunktionen wächst der Absicherungsaufwand exponentiell an, so dass während der Serienentwicklung zusätzliche Testtiefe erforderlich ist. Zudem rückt die zwischen 2022 und 2025 anstehende Schwerpunktverlagerung bei der NCAP-Bewertung für Neufahrzeuge hin zu szenarienbasierten Tests die Funktionen der aktiven Sicherheit in den Fokus, die auf Radar- und Lidarsystemen beruhen können, wobei Notbremsassistent und Abbiegeassistent nur einige Beispiele sind.
Hierzu stehen zwei Arbeitspakete im primären Fokus: So arbeitet EDAG daran, das Bewegungsspektrum des Hindernisroboters sowohl hinsichtlich der absoluten Distanz als auch in punkto 360-Grad-Rundum-Sensierung zu erweitern, um so auch Hindernisse für radar- und lidarbasierte Sensorsysteme zu positionieren, die sich in mehr als 5 m Entfernung sowie seitlich neben dem Fahrzeug befinden. Gleichzeitig soll die Einführung modularer Software-Bestandteile zur Flexibilisierung der automatisierten Messdatenauswertung für verschiedene Bussysteme beitragen.
Aktuell erfolgt die Absicherung der finalen radar- und lidarbasierten Kundenfunktionen auf Basis eines Fahrszenarios über eine Kombination aus realen und virtuellen Gesamtfahrzeugtests. Ziel des weiterentwickelten Edscene für diese Sensorgattungen besteht in der Abstraktionsebene darunter: die Objekterkennung je Einzelsensor. Diese wird in Analogie zum ISO/OSI-Referenzmodell allgemeingültig zunächst von der Objektklassifizierung abgegrenzt. Hierdurch sollen die testenden Personen innerhalb der technischen Entwicklungskette eine fundierte Qualitätsaussage bezüglich der Hindernisdetektion je Sensorgattung treffen können, um eine adäquate Testprozedur für die danach folgenden technischen Schichten zu ermöglichen – und zwar noch vor der auf mehreren Sensorquellen basierenden Sensordatenfusion sowie noch vor der Umfeldmodellierung und den Kundenfunktionen. Dies erlaubt die simultane Absicherung funktionaler Ebenen während der Serienentwicklung, von der Objekterkennung über die Objektklassifizierung bis zur Objektverfolgung.
Auf diese Art lassen sich bereits in früheren Produktphasen während der Serienentwicklung simultan die Güte der Objekterkennung je Sensorgattung evaluieren, um bei weiterführenden Tests der darauf basierenden Sensordatenfusion und letztlich Kundenfunktionen Fehler in tieferen Schichten, ergo der Objekterkennungsebene, frühzeitig minimieren zu können.
(av)