Wenn Testdaten, KI und digitaler Zwilling präzise ineinandergreifen

Testen im SDV mit KI, Datenstrategie und digitalem Zwilling

Mehr Daten bedeuten nicht automatisch bessere Tests – im Gegenteil. Erst durch eine abgestimmte Datenstrategie, gezielten KI-Einsatz und digitale Zwillinge lassen sich moderne Fahrfunktionen valide, effizient und zukunftssicher testen.

6 min
Wie KI, digitaler Zwilling und gezielte Datenstrategie neue Maßstäbe für Testprozesse im Automotive Engineering setzen, und zwar präzise, skalierbar, effizient.
Wie KI, digitaler Zwilling und gezielte Datenstrategie neue Maßstäbe für Testprozesse im Automotive Engineering setzen, und zwar präzise, skalierbar, effizient.

Künstliche Intelligenz und digitaler Zwilling gewinnen im Automotive Engineering immer mehr an Bedeutung. Kein Wunder, denn sie unterstützen bei der Umsetzung autonomer Fahrfunktionen und können Entwicklungszyklen deutlich verkürzen. Die KI punktet dabei mit ihrer Fähigkeit, schnell auch in riesigen Datenmengen relevante Muster und Strukturen zu erkennen. Dies sollte jedoch nicht als Freifahrtschein betrachtet werden, um sie mit allen möglichen Daten zu füttern, die irgendwo gesammelt wurden. Statt „ viel hilft viel“ gilt hier „viel kostet viel “ und schlechte Daten gefährden die Ergebnisqualität. Wer im Automotive Engineering Wert auf effiziente Testprozesse mit validen Ergebnissen legt, sollte deshalb die passende Datenstrategie mitbringen, sehr auf Datenqualität und -volumen achten, um KI und digitalen Zwilling im Entwicklungsprozess optimal zu nutzen.

Klares Ziel für Testverfahren setzen

Vor der Konkretisierung einer Teststrategie sollte klar festgelegt werden, was genau getestet und validiert werden soll, da sich die anzuwendenden KI-Methoden – und deren benötigte Daten – stark am Anwendungsfall orientieren. Sollen beispielsweise die Fähigkeiten autonomer Fahrfunktionen überprüft werden, lassen sich Methoden des Requirement-Engineerings nutzen. Darauf kann KI effizient aufsetzen, um Testfälle zu erzeugen und letztlich einen umfassenden Testkatalog aufzubauen. Im Folgenden soll beispielhaft erläutert werden, wie das Testen von perzeptiven Fähigkeiten autonomer Fahrfunktionen mithilfe von KI und digitalem Zwilling aufgebaut werden kann und was dabei für das Datenmanagement wichtig ist. 

Daten gezielt erfassen

Schon die Datenerfassung und -speicherung braucht eine saubere Planung. Die Erfassung echter Verkehrsdaten erfolgt üblicherweise durch ein Fahrzeug, das sich mit bis zu 20 komplexen Sensoren im Straßenverkehr bewegt und relevante Umgebungsdetails aufzeichnet. So können im Laufe eines Tages Datenmengen bis zu einem Terabyte entstehen. Da diese Form der Datenerfassung aufwändig und teuer ist, sollte im Vorfeld bedacht werden, ob die Daten nur für ein aktuelles Testvorhaben benötigt oder auch für zukünftige genutzt werden können. Die gesammelten Rohdaten müssen dann transportiert, ggf. anonymisiert, qualitätsgesichert, revisionssicher gespeichert und für die spätere Verarbeitung in geeigneter Weise verfügbar gemacht werden. Hier kann erstmals KI genutzt werden, um die Qualität der gesammelten Daten automatisiert und in akzeptabler Zeit zu analysieren – zum Beispiel auf Belichtung, Schärfe und Farbtreue. Ergänzend können bei Bedarf auch direkt Gesichter, Kennzeichen etc. anonymisiert werden. Soweit die Zieldatenstruktur für die spätere Verarbeitung bekannt ist, können außerdem Formatkonvertierungen sowie eine Reduktion oder Erhöhung von Auflösung und Bildfrequenz erfolgen.

Klares Konzept für Datenspeicherung in der Cloud

Aufgrund der riesigen Datenmengen erfordert auch die Speicherung ein klares Konzept. Dazu müssen zum Beispiel Auflösung und Formate der Bild- und Videodaten festgelegt werden: Genügen zehn Bilder pro Sekunde oder werden 30 oder 60 Bilder benötigt? Sind verlustfreie Formate für die Komprimierung notwendig oder dürfen Detailinformationen ggf. verloren gehen? Um Kosten zu optimieren, sind Zugriffszeiten relevant: Welche Teile der Daten braucht es im direkten Zugriff, weil mit ihnen aktuell gearbeitet werden soll, welche Daten wandern in ein „kaltes“ Archiv , das innerhalb eines Tages verfügbar ist? Je nach Antwort können sich die Preise für die Speicherung schnell um den Faktor 10 bis 30 unterscheiden.

Datenmenge für valide Testergebnisse richtig abschätzen

Die Frage, wie viele Daten aus der physikalischen Welt gesammelt werden müssen, um für ein Testverfahren valide Ergebnisse erhalten zu können, ist nicht trivial und auch nicht für alle Testszenarien gleich: Wenn zum Beispiel zu entscheiden ist, wie viele Kilometer im Straßenverkehr erfasst werden müssen, um die Domäne der geplanten Tests gut genug zu kennen, ist auch hier „je mehr, desto besser“ keine gute Antwort. Die Erfassung und Speicherung von Sensordaten ist zum einen aufwändig und teuer und bringt zum anderen ab einem gewissen Punkt auch keine neuen Erkenntnisse mehr. BTC hat dazu quantitative Verfahren entwickelt, mit denen die – je nach Testszenario – benötigte Datenmenge abgeschätzt werden kann: mit Sicherheit so viele Daten wie nötig, aber so wenig wie möglich.

Mit KI relevante Strukturen erkennen

Stehen ausreichend beobachtete Daten zur Verfügung, kommt zum zweiten Mal die KI zum Einsatz: Sie muss helfen, diese automatisiert zu analysieren, Häufigkeiten und Strukturen zu erkennen und relevante Fallgruppen aufzuzeigen. Die Ergebnisse lassen sich dann systematisch mit allen Varianten kategorisieren, benennen – beispielsweise als „links abbiegen“ oder „Überholvorgang“ – und in ihrem Auftreten statistisch auswerten. Einmal kategorisiert können die Daten für den Aufbau eines umfangreichen Testkatalogs genutzt werden. Der Vorteil: Aufgrund der präzise ausgewerteten Datenmenge bilden sie Verkehrssituationen in ihrer statistischen Verteilung zuverlässig und nachvollziehbar ab. Man kann also sicher sein, dass die Datenbasis für den Testkatalog im Rahmen des beobachtbaren „Normalverhaltens“ gut strukturiert vorliegt und damit eine passende Repräsentation der „Wirklichkeit“ bietet.

Ausnahmefälle mithilfe simulierter Daten abbilden

Das Normalverhalten im „typischen“ Straßenverkehr soll von ausreichend vielen im realen Betrieb erfassten Sensordaten abgebildet werden. Außerdem sind Ausnahmen relevant: kritische Verkehrssituationen, technische Ausfälle und Unfälle. Diese sind allerdings statistisch gesehen so selten, dass es viel zu ineffizient und teuer wäre, auf ihr Auftreten bei Testfahrten zu warten. Es hat sich stattdessen bewährt, kritische und seltene Fälle durch simulierte Daten abzubilden, also beispielsweise eine physikalisch modellierte und grafisch durch einen Simulator visualisierte Version eines Aufpralls zu nutzen. Diese simulierten Daten müssen kontrolliert und nach plausiblen Schemata mit einer meist von Domänenexperten begründeten und zum Beispiel auf Unfallstatistiken beruhenden Zufallsverteilung generiert werden. Damit stehen auch die Eingabedaten für seltene, aber relevante Situationen zum Aufbau entsprechender digitaler Testkataloge bereit.

Bild 1: So kann der Test eines digitalen Zwillings am Beispiel einer perzeptiven Aufgabe aus der Domäne des autonomen Fahrens aussehen.
Bild 1: So kann der Test eines digitalen Zwillings am Beispiel einer perzeptiven Aufgabe aus der Domäne des autonomen Fahrens aussehen.

Testfälle mit digitalem Zwilling durchrechnen

Ein einzelner Testfall basiert also entweder auf physikalisch beobachteten oder simulierten Eingabedaten und aus dem erwarteten Ergebnis, das das zu testende System, beispielsweise ein autonomes Assistenzsystem, in der vorgegebenen Situation liefern soll. Ein digitaler Zwilling fungiert dabei als digitales Abbild und simuliert das Verhalten des zu testenden Systems. Meist wird zur Validierung einer komplexeren Funktion ein umfangreicher, strukturierter Satz von mehreren Testfällen verwendet. Die Menge aller Testfälle zur Validierung eines Systems oder des Entwicklungsinkrements eines Systems bezeichnet man als Testkatalog. Er wird verwendet, um über alle Entwicklungsstufen eines Systems hinweg die Qualität des aktuellen Systems zu bewerten, Entwicklungsfortschritt zu dokumentieren und Regressionen – unbeabsichtigte Rückschritte – frühzeitig zu entdecken und zu eliminieren. Bild 1 zeigt schematisiert, wie der Test eines digitalen Zwillings am Beispiel einer perzeptiven Aufgabe aus der Domäne des autonomen Fahrens aussehen kann.

Der digitale Zwilling erhält dabei Testfall für Testfall die gesammelten und simulierten Daten als Eingabe und analysiert sie entsprechend seiner modellierten Funktion. Das Ausgabeergebnis des digitalen Zwillings wird mit dem erwarteten Testergebnis verglichen und zeigt am Ende der Testreihe den Entwicklungsstand bezüglich Qualität, Schwächen oder Fehlern. Die Ergebnisse werden versioniert und dokumentieren auf diese Weise sehr klar Fortschritte und ggf. auch punktuelle Rückschritte in der Entwicklung des zu testenden Systems.

Digitalen Zwilling kontinuierlich weiterentwickeln

Auf Basis der Vorarbeiten zur Datenbeschaffung, Qualitätssicherung, zum Aufbau von Testkatalog und digitalem Zwilling selbst sowie dessen Einbettung in die KI-gestützte Cloud-Umgebung, beginnt nun ein zielgerichteter und hocheffizienter Entwicklungsprozess: Je nachdem, wie die Testergebnisse ausfallen, kann der digitale Zwilling weiterentwickelt und mit adäquaten Modifikationen in einer nächsten Iteration sofort wieder den notwendigen Testreihen unterzogen werden, so dass er in einem kontinuierlichen Prozess stetig verbessert wird. Wichtig ist dabei, dass der vollständige bzw. bewusst reduzierte Testkatalog nicht nur die neue, gerade in Entwicklung befindliche Funktionalität, sondern durch Regressionstests insbesondere auch bereits umgesetzte Bestandsfunktionalität absichert. Am digitalen Zwilling lassen sich auf diese Weise vielversprechende Modifikationen am virtuellen Fahrzeug in „Softwaregeschwindigkeit“ systematisch und vollständig durchtesten.

Der digitale Zwilling selbst ist modular und hierarchisch aufgebaut. Durch Ergänzung neuer Funktionen oder die Kopplung mehrerer digitaler Zwillinge können so mit der Zeit auch komplexe Systeme zuverlässig und umfassend modelliert, getestet und sicher weiterentwickelt werden. Dies kann die Entwicklungszyklen für komplexe Systeme in der Automobilindustrie im Vergleich zu Test und Entwicklung von realen Hardware-Objekten von beispielsweise sechs Monaten auf wenige Wochen reduzieren – vorausgesetzt, die Infrastruktur und auch die Datenbasis für dieses Vorgehen wurde wie beschrieben systematisch und strukturiert aufgebaut.

In Kürze: So spielen KI und Daten im Testprozess zusammen

Mit Hilfe von KI werden gesammelte Sensordaten kategorisiert, indiziert und gemäß modelliertem Lifecycle-Modell gespeichert. Damit stehen diese Rohdaten für aktuelle und auch zukünftige Testverfahren zur Verfügung. Durch Analyse der Sensordaten werden Testfälle gewonnen, die in vorstrukturierten und statistisch ausbalancierten Testkatalogen für beobachtete Situationen abgelegt werden. Für Ausnahmefälle werden, basierend auf Expertenwissen, mittels KI-basierter Simulationen ebenfalls entsprechende Testfälle gewonnen und der Testdatenbank hinzugefügt.

Der digitale Zwilling repräsentiert das zu entwickelnde und zu testende System. Er wird mittels KI-Bibliothek effizient und modular aufgebaut und in eine Cloud-Ausführungsumgebung gebracht, in der auch die Datenbasis zur Verfügung steht. In dieser Laufzeitumgebung findet nun der kontinuierliche Entwicklungs- und Testzyklus des Zielsystems statt.

Bild 2: Bibliothek aus KI-Komponenten für den Testprozess.
Bild 2: Bibliothek aus KI-Komponenten für den Testprozess.

Die in Bild 2 dargestellte Bibliothek aus KI-Komponenten spielt dabei eine zentrale Rolle. Sie bildet die technische Basis für:

  • die Qualitätssicherung, Indizierung und ggf. Transformation der Sensor-Rohdaten.
  • die automatisierte Analyse der qualitätsgesicherten Sensordaten und den Aufbau des Standard-Testkatalogs daraus.
  • die Generierung von nicht oder zu aufwändig beobachtbaren Ausnahmefällen zum Aufbau eines entsprechenden Ausnahmen-Testkatalogs.
  • den Aufbau des digitalen Zwillings selbst, der die zu entwickelnde technische Zielkomponente repräsentiert.
  • Leistungsfähige IT-Infrastruktur notwendig

    Wenn komplexe Szenarien IT-basiert getestet und durchgerechnet werden sollen, braucht es eine leistungsfähige IT-Infrastruktur, die auch riesige Datenmengen im Terra- bis Petabyte-Bereich verarbeiten kann. Cloud-Kapazitäten können dafür je nach Anforderung flexibel skaliert und bei Bedarf auch als private Cloud zur Verfügung gestellt werden. BTC hat in der vergangenen Dekade eine solche Cloud-basierte Engineering-Plattform entwickelt, produktiv genutzt und kontinuierlich optimiert. Sie umfasst neben der Cloud-Infrastruktur auch eine Applikationsarchitektur, die die erforderlichen Computing-Ressourcen flexibel einsetzt und auf die KI-basierte Unterstützung von Engineering-Prozessen für autonomes Fahren zugeschnitten ist. Damit lassen sich Fahrassistenten oder ganze autonome Fahrsysteme als digitaler Zwilling aufbauen und systematisch testen, um Engineering-Prozesse von Automobilherstellern und Zulieferern hocheffizient unterstützen. (na)


Autor:

Dr. Ulrich Keil, Bereichsleitung KI & Cyber Security bei BTC