Wenn Testdaten, KI und digitaler Zwilling präzise ineinandergreifen
Testen im SDV mit KI, Datenstrategie und digitalem Zwilling
Mehr Daten bedeuten nicht automatisch bessere Tests – im Gegenteil. Erst durch eine abgestimmte Datenstrategie, gezielten KI-Einsatz und digitale Zwillinge lassen sich moderne Fahrfunktionen valide, effizient und zukunftssicher testen.
Dr. Ulrich KeilDr. UlrichKeil
6 min
Wie KI, digitaler Zwilling und gezielte Datenstrategie neue Maßstäbe für Testprozesse im Automotive Engineering setzen, und zwar präzise, skalierbar, effizient.Kai-Uwe Kunze, BTC
Anzeige
Künstliche Intelligenz und
digitaler Zwilling gewinnen im Automotive Engineering immer mehr an Bedeutung.
Kein Wunder, denn sie unterstützen bei der Umsetzung autonomer Fahrfunktionen
und können Entwicklungszyklen deutlich verkürzen. Die KI punktet dabei mit
ihrer Fähigkeit, schnell auch in riesigen Datenmengen relevante Muster und
Strukturen zu erkennen. Dies sollte jedoch nicht als Freifahrtschein betrachtet
werden, um sie mit allen möglichen Daten zu füttern, die irgendwo gesammelt
wurden. Statt „ viel hilft viel“ gilt hier „viel kostet viel “ und schlechte
Daten gefährden die Ergebnisqualität. Wer im Automotive Engineering Wert auf
effiziente Testprozesse mit validen Ergebnissen legt, sollte deshalb die
passende Datenstrategie mitbringen, sehr auf Datenqualität und -volumen achten,
um KI und digitalen Zwilling im Entwicklungsprozess optimal zu nutzen.
Klares Ziel für Testverfahren
setzen
Anzeige
Vor der Konkretisierung einer Teststrategie
sollte klar festgelegt werden, was genau getestet und validiert werden soll, da
sich die anzuwendenden KI-Methoden – und deren benötigte Daten – stark am
Anwendungsfall orientieren. Sollen beispielsweise die Fähigkeiten autonomer
Fahrfunktionen überprüft werden, lassen sich Methoden des
Requirement-Engineerings nutzen. Darauf kann KI effizient aufsetzen, um Testfälle
zu erzeugen und letztlich einen umfassenden Testkatalog aufzubauen. Im Folgenden
soll beispielhaft erläutert werden, wie das Testen von perzeptiven Fähigkeiten
autonomer Fahrfunktionen mithilfe von KI und digitalem Zwilling aufgebaut
werden kann und was dabei für das Datenmanagement wichtig ist.
Schon die Datenerfassung und
-speicherung braucht eine saubere Planung. Die Erfassung echter Verkehrsdaten
erfolgt üblicherweise durch ein Fahrzeug, das sich mit
bis zu 20 komplexen Sensoren im Straßenverkehr bewegt und relevante
Umgebungsdetails aufzeichnet. So können im Laufe eines Tages Datenmengen bis zu
einem Terabyte entstehen. Da diese Form der Datenerfassung aufwändig und
teuer ist, sollte im Vorfeld bedacht werden, ob die Daten nur für ein aktuelles
Testvorhaben benötigt oder auch für zukünftige genutzt werden können. Die gesammelten
Rohdaten müssen dann transportiert, ggf. anonymisiert, qualitätsgesichert, revisionssicher
gespeichert und für die spätere Verarbeitung in geeigneter Weise verfügbar gemacht
werden. Hier kann erstmals KI genutzt werden, um die Qualität der gesammelten
Daten automatisiert und in akzeptabler Zeit zu analysieren – zum Beispiel auf
Belichtung, Schärfe und Farbtreue. Ergänzend können bei Bedarf auch direkt
Gesichter, Kennzeichen etc. anonymisiert werden. Soweit die Zieldatenstruktur
für die spätere Verarbeitung bekannt ist, können außerdem Formatkonvertierungen
sowie eine Reduktion oder Erhöhung von Auflösung und Bildfrequenz erfolgen.
Anzeige
Klares Konzept für
Datenspeicherung in der Cloud
Aufgrund der riesigen Datenmengen erfordert
auch die Speicherung ein klares Konzept. Dazu müssen zum Beispiel Auflösung und
Formate der Bild- und Videodaten festgelegt werden: Genügen zehn Bilder pro
Sekunde oder werden 30 oder 60 Bilder benötigt? Sind verlustfreie Formate für die
Komprimierung notwendig oder dürfen Detailinformationen ggf. verloren gehen? Um
Kosten zu optimieren, sind Zugriffszeiten relevant: Welche Teile der Daten
braucht es im direkten Zugriff, weil mit ihnen aktuell gearbeitet werden soll,
welche Daten wandern in ein „kaltes“ Archiv , das innerhalb eines Tages verfügbar
ist? Je nach Antwort können sich die Preise für die Speicherung schnell um den
Faktor 10 bis 30 unterscheiden.
Datenmenge für valide
Testergebnisse richtig abschätzen
Anzeige
Die Frage, wie viele Daten aus der
physikalischen Welt gesammelt werden müssen, um für ein Testverfahren valide
Ergebnisse erhalten zu können, ist nicht trivial und auch nicht für alle Testszenarien
gleich: Wenn zum Beispiel zu entscheiden ist, wie viele Kilometer im
Straßenverkehr erfasst werden müssen, um die Domäne der geplanten Tests gut
genug zu kennen, ist auch hier „je mehr, desto besser“ keine gute Antwort. Die
Erfassung und Speicherung von Sensordaten ist zum einen aufwändig und teuer und
bringt zum anderen ab einem gewissen Punkt auch keine neuen Erkenntnisse mehr. BTC
hat dazu quantitative Verfahren entwickelt, mit denen die – je nach
Testszenario – benötigte Datenmenge abgeschätzt werden kann: mit Sicherheit so
viele Daten wie nötig, aber so wenig wie möglich.
Stehen ausreichend beobachtete
Daten zur Verfügung, kommt zum zweiten Mal die KI zum Einsatz: Sie muss helfen,
diese automatisiert zu analysieren, Häufigkeiten und Strukturen zu erkennen und
relevante Fallgruppen aufzuzeigen. Die Ergebnisse lassen sich dann systematisch
mit allen Varianten kategorisieren, benennen – beispielsweise als „links
abbiegen“ oder „Überholvorgang“ – und in ihrem Auftreten statistisch auswerten.
Einmal kategorisiert können die Daten für den Aufbau eines umfangreichen Testkatalogs
genutzt werden. Der Vorteil: Aufgrund der präzise ausgewerteten Datenmenge bilden
sie Verkehrssituationen in ihrer statistischen Verteilung zuverlässig und
nachvollziehbar ab. Man kann also sicher sein, dass die Datenbasis für den
Testkatalog im Rahmen des beobachtbaren „Normalverhaltens“ gut strukturiert
vorliegt und damit eine passende Repräsentation der „Wirklichkeit“ bietet.
Ausnahmefälle mithilfe
simulierter Daten abbilden
Anzeige
Das Normalverhalten im „typischen“ Straßenverkehr soll von ausreichend vielen im realen Betrieb erfassten Sensordaten
abgebildet werden. Außerdem sind Ausnahmen relevant: kritische Verkehrssituationen,
technische Ausfälle und Unfälle. Diese sind allerdings statistisch gesehen so
selten, dass es viel zu ineffizient und teuer wäre, auf ihr Auftreten bei Testfahrten
zu warten. Es hat sich stattdessen bewährt, kritische und seltene Fälle durch
simulierte Daten abzubilden, also beispielsweise eine physikalisch modellierte
und grafisch durch einen Simulator visualisierte Version eines Aufpralls zu
nutzen. Diese simulierten Daten müssen kontrolliert und nach plausiblen
Schemata mit einer meist von Domänenexperten begründeten und zum Beispiel auf Unfallstatistiken
beruhenden Zufallsverteilung generiert werden. Damit stehen auch die
Eingabedaten für seltene, aber relevante Situationen zum Aufbau entsprechender digitaler
Testkataloge bereit.
Bild 1: So kann der Test eines digitalen Zwillings am Beispiel einer perzeptiven Aufgabe aus der Domäne des autonomen Fahrens aussehen.BTC
Testfälle mit digitalem
Zwilling durchrechnen
Ein einzelner Testfall basiert also
entweder auf physikalisch beobachteten oder simulierten Eingabedaten und aus
dem erwarteten Ergebnis, das das zu testende System, beispielsweise ein
autonomes Assistenzsystem, in der vorgegebenen Situation liefern soll. Ein
digitaler Zwilling fungiert dabei als digitales Abbild und simuliert das Verhalten
des zu testenden Systems. Meist wird zur Validierung einer komplexeren Funktion
ein umfangreicher, strukturierter Satz von mehreren Testfällen verwendet. Die
Menge aller Testfälle zur Validierung eines Systems oder des
Entwicklungsinkrements eines Systems bezeichnet man als Testkatalog. Er wird verwendet,
um über alle Entwicklungsstufen eines Systems hinweg die Qualität des aktuellen
Systems zu bewerten, Entwicklungsfortschritt zu dokumentieren und Regressionen –
unbeabsichtigte Rückschritte – frühzeitig zu entdecken und zu eliminieren. Bild 1 zeigt schematisiert, wie der Test eines digitalen Zwillings am Beispiel einer
perzeptiven Aufgabe aus der Domäne des autonomen Fahrens aussehen kann.
Anzeige
Der digitale Zwilling erhält dabei
Testfall für Testfall die gesammelten und simulierten Daten als Eingabe und
analysiert sie entsprechend seiner modellierten Funktion. Das Ausgabeergebnis des
digitalen Zwillings wird mit dem erwarteten Testergebnis verglichen und zeigt am
Ende der Testreihe den Entwicklungsstand bezüglich Qualität, Schwächen oder
Fehlern. Die Ergebnisse werden versioniert und dokumentieren auf diese Weise
sehr klar Fortschritte und ggf. auch punktuelle Rückschritte in der Entwicklung
des zu testenden Systems.
Auf Basis der Vorarbeiten zur
Datenbeschaffung, Qualitätssicherung, zum Aufbau von Testkatalog und digitalem
Zwilling selbst sowie dessen Einbettung in die KI-gestützte Cloud-Umgebung, beginnt
nun ein zielgerichteter und hocheffizienter Entwicklungsprozess: Je nachdem,
wie die Testergebnisse ausfallen, kann der digitale Zwilling weiterentwickelt
und mit adäquaten Modifikationen in einer nächsten Iteration sofort wieder den
notwendigen Testreihen unterzogen werden, so dass er in einem kontinuierlichen
Prozess stetig verbessert wird. Wichtig ist dabei, dass der vollständige bzw.
bewusst reduzierte Testkatalog nicht nur die neue, gerade in Entwicklung
befindliche Funktionalität, sondern durch Regressionstests insbesondere auch
bereits umgesetzte Bestandsfunktionalität absichert. Am digitalen Zwilling
lassen sich auf diese Weise vielversprechende Modifikationen am virtuellen
Fahrzeug in „Softwaregeschwindigkeit“ systematisch und vollständig durchtesten.
Der digitale Zwilling selbst ist
modular und hierarchisch aufgebaut. Durch Ergänzung neuer Funktionen oder die
Kopplung mehrerer digitaler Zwillinge können so mit der Zeit auch komplexe
Systeme zuverlässig und umfassend modelliert, getestet und sicher
weiterentwickelt werden. Dies kann die Entwicklungszyklen für komplexe Systeme
in der Automobilindustrie im Vergleich zu Test und Entwicklung von realen
Hardware-Objekten von beispielsweise sechs Monaten auf wenige Wochen reduzieren
– vorausgesetzt, die Infrastruktur und auch die Datenbasis für dieses Vorgehen wurde
wie beschrieben systematisch und strukturiert aufgebaut.
In Kürze: So spielen KI und
Daten im Testprozess zusammen
Mit Hilfe von KI werden gesammelte
Sensordaten kategorisiert, indiziert und gemäß modelliertem Lifecycle-Modell gespeichert.
Damit stehen diese Rohdaten für aktuelle und auch zukünftige Testverfahren zur
Verfügung. Durch Analyse der Sensordaten werden Testfälle gewonnen, die in
vorstrukturierten und statistisch ausbalancierten Testkatalogen für beobachtete
Situationen abgelegt werden. Für Ausnahmefälle werden, basierend auf
Expertenwissen, mittels KI-basierter Simulationen ebenfalls entsprechende
Testfälle gewonnen und der Testdatenbank hinzugefügt.
Der digitale Zwilling
repräsentiert das zu entwickelnde und zu testende System. Er wird mittels
KI-Bibliothek effizient und modular aufgebaut und in eine
Cloud-Ausführungsumgebung gebracht, in der auch die Datenbasis zur Verfügung
steht. In dieser Laufzeitumgebung findet nun der kontinuierliche Entwicklungs-
und Testzyklus des Zielsystems statt.
Bild 2: Bibliothek aus KI-Komponenten für den Testprozess.BTC
Die in Bild 2 dargestellte
Bibliothek aus KI-Komponenten spielt dabei eine zentrale Rolle. Sie bildet die
technische Basis für:
die Qualitätssicherung, Indizierung und ggf.
Transformation der Sensor-Rohdaten.
die automatisierte Analyse der
qualitätsgesicherten Sensordaten und den Aufbau des Standard-Testkatalogs
daraus.
die Generierung von nicht oder zu aufwändig
beobachtbaren Ausnahmefällen zum Aufbau eines entsprechenden
Ausnahmen-Testkatalogs.
den Aufbau des digitalen Zwillings selbst, der
die zu entwickelnde technische Zielkomponente repräsentiert.
Leistungsfähige IT-Infrastruktur notwendig
Wenn komplexe Szenarien IT-basiert getestet und durchgerechnet werden sollen, braucht es eine leistungsfähige IT-Infrastruktur, die auch riesige Datenmengen im Terra- bis Petabyte-Bereich verarbeiten kann. Cloud-Kapazitäten können dafür je nach Anforderung flexibel skaliert und bei Bedarf auch als private Cloud zur Verfügung gestellt werden. BTC hat in der vergangenen Dekade eine solche Cloud-basierte Engineering-Plattform entwickelt, produktiv genutzt und kontinuierlich optimiert. Sie umfasst neben der Cloud-Infrastruktur auch eine Applikationsarchitektur, die die erforderlichen Computing-Ressourcen flexibel einsetzt und auf die KI-basierte Unterstützung von Engineering-Prozessen für autonomes Fahren zugeschnitten ist. Damit lassen sich Fahrassistenten oder ganze autonome Fahrsysteme als digitaler Zwilling aufbauen und systematisch testen, um Engineering-Prozesse von Automobilherstellern und Zulieferern hocheffizient unterstützen. (na)
Autor:
Dr. Ulrich Keil,
Bereichsleitung KI & Cyber Security bei BTC