transport and Artificial intelligence concept.

technology of machine or robot Learning analytics identify vehicles technology , Software analytics and recognition for transport logistic ,Artificial intelligence concept. (Bild: Adobe Stock Sittinan/P3 Systems)

Are you Ready for AI? Dieser Frage müssen sich derzeit viele Unternehmen im Automobilbereich aktiv stellen, denn Methoden der Künstlichen Intelligenz (KI) beziehungsweise „Artificial Intelligence“ (AI) sind auf dem besten Weg, in unseren Fahrzeugen allgegenwärtig zu sein. Für OEMs und ihre Zulieferer bietet AI fantastische Potenziale – im Prinzip. Die Vergangenheit hat nämlich gezeigt, dass neue Technologien für die gesamte Prozesskette eine große Herausforderung sind. Auch die bislang ausbleibenden Produktivitätssprünge durch Industrie 4.0 offenbaren, dass es oft ein weiter Weg ist, die Potenziale einer neuen Technologie im Alltag zu realisieren. Daher lautet die drängende Aufgabe so: Wie wird mein Unternehmen „Ready for AI“, während viele Wettbewerber auf den Markt drängen, die ihre Wurzeln in der Software und AI haben?

transport and Artificial intelligence concept.

technology of machine or robot Learning analytics identify vehicles technology , Software analytics and recognition for transport logistic ,Artificial intelligence concept. Adobe Stock Sittinan/P3 Systems

Ein Déjà-Vu

Die Schlagzeilen zu Beginn der 2000er Jahre waren eindeutig. Elektronik und Software hielten Einzug in die Fahrzeuge, eine Explosion von Funktionen, Schnittstellen, Vernetzung und Konfigurationen folgte. Fahrzeuganläufe wurden zum Desaster, und die Presse ätzte über Produkte, die wie Bananen beim Kunden nachreifen mussten. Zusätzlich zum Image-Schaden entwickelten sich auch die GuK-Kosten zum Problem.

Die Wurzel der Schwierigkeiten: Die komplexen E/E- und Software-Komponenten benötigten ganz andere Entwicklungsprozesse als die Hardware-Entwicklung. Die Vorstellung, dass Software im Vergleich zu Blech beliebig geändert und gefixt werden kann, erwies sich schnell als Trugschluss. Geänderte Abläufe bedingten neue Toolketten mit durchgängigen Schnittstellen, anderen Absicherungsprozessen sowie neuartigen Rollen, Organisationseinheiten und Entscheidungsprozessen.

AI ist das nächste große Ding

Künstliche Intelligenz ist der Oberbegriff für alle Methoden, bei denen der Computer anhand von Trainingsdaten lernt, eigenständige Entscheidungen zu treffen. Statt vorgegebenen Regeln konstruiert sich der Algorithmus seine Regeln selbst. Der Programmierer gibt dem Algorithmus lediglich die Trainingsdaten und den Trainingsprozess vor. Die bekannteste AI-Methode ist vermutlich das Deep Learning – eine Variante der neuronalen Netze mit komplexer Struktur. Sind ausreichend große Mengen an Trainingsbeispielen vorhanden, liefern sie hervorragende Ergebnisse für eine breite Klasse an Problemstellungen.

Eckdaten

Methoden der Künstlichen Intelligenz (KI) beziehungsweise „Artificial Intelligence“ (AI) sind auf dem besten Weg, in unseren Fahrzeugen allgegenwärtig zu sein. Für OEMs und ihre Zulieferer bietet AI fantastische Potenziale – im Prinzip. Die Vergangenheit hat nämlich gezeigt, dass neue Technologien für die gesamte Prozesskette eine große Herausforderung sind. Auch die bislang ausbleibenden Produktivitätssprünge durch Industrie 4.0 offenbaren, dass es oft ein weiter Weg ist, die Potenziale einer neuen Technologie im Alltag zu realisieren. Daher lautet die drängende Aufgabe so: Wie wird mein Unternehmen „Ready for AI“, während viele Wettbewerber auf den Markt drängen, die ihre Wurzeln in der Software und AI haben?

Der wichtigste Anwendungsfall für AI ist zur Zeit das autonome Fahren. OEMs und Zulieferer arbeiten mit Hochdruck daran, einzelnen Aufgaben wie die Objekterkennung oder Trajektorienplanung mit Hilfe von AI-Methoden zuverlässiger zu machen. Klarer Angstgegner der Automobilindustrie ist der Google-Ableger Waymo, der in Kürze eine Flotte von mehr als 80.000 autonomen Fahrzeugen auf die Straße bringen will und dem ein Vorsprung in den Algorithmen von mindestens zwei Jahren zugesprochen wird. Weitere mögliche AI-Anwendungen könnten Funktionen sein, die versuchen, das Verhalten und die Bedürfnisse des Fahrers vorherzusagen und das Fahrzeug darauf einzustellen.

Dazu müssen Muster erkannt (descriptive), das Verhalten von Fahrzeug oder Nutzer vorhergesagt (predictive) oder Maßnahmen eingeleitet werden, die zum Beispiel einen Unfall im Vorfeld verhindern (prescriptive). Die dafür notwendigen Methoden werden mit rasanter Geschwindigkeit verfügbar. Wer vor wenigen Jahren einen Chatbot für den Kundendienst programmieren wollte, musste eine tiefgehende Expertise in der Firma besitzen oder diese extern einkaufen. Heute lassen sich komplexe Bots über die Frameworks von IBM, Amazon & Co. schnell und robust einrichten. Ebenso verfügbar sind Methoden zur Analyse von Videos, Speicherung und Verarbeitung massiver Datenströme, die Anbindung intelligenter Sensoren, die Synthese oder Übersetzung von Sprache, das weltweite Bereitstellen von Inhalten, die Analyse von Produktionsprozessen etc.

Hilfe, wir haben die PoCen!

Bild 1: Der Proof of Concept Ready for AI (PoC) klappt in 80 % der Fälle – 80% des Aufwands stecken aber in der Ende-zu-Ende-Umsetzung der gesamten Prozesskette, ohne die es keinen wirtschaftlichen Nutzen gibt

Bild 1: Der Proof of Concept (PoC) klappt in 80 % der Fälle – 80% des Aufwands stecken aber in der Ende-zu-Ende-Umsetzung der gesamten Prozesskette, ohne die es keinen wirtschaftlichen Nutzen gibt. P3 Systems

Die Schwierigkeit liegt inzwischen somit nicht mehr darin, aufzuzeigen, dass man mit AI prinzipiell komplexe Aufgaben lösen kann. Ein solcher Proof of Concept (PoC) ist schnell gebaut und klappt fast immer, aber ein PoC ignoriert die Komplexität der realen Entwicklungsprozesse und des Produktportfolios.

Spannend wird es, wenn reale Daten, reale Systeme und reale Umgebungen ins Spiel kommen. Wenngleich 80 % der PoCs gelingen, bestehen mindestens 80 % des Aufwands darin, Alltagstauglichkeit und Robustheit zu erreichen (Bild 1). Wirklich Ready for AI zu werden ist daher eine komplexe Aufgabe.

Ready for AI – AI-Readyness

In einer Prozesskette erhalten wir nur dann gute Ergebnisse, wenn alle Elemente der Kette ineinandergreifen und ähnlich gut sind. Wer die weltbesten AI-Experten einstellt, aber die Trainingsdaten nicht im Griff hat, wird scheitern. Wer viel in das Training seiner Bildverarbeitung investiert, aber den Freigabeprozess nicht systematisch bedienen kann, scheitert ebenso. Bereits seit vielen Jahren wendet die P3 erfolgreich das Referenzmodell der „Test Readyness“ an (Bild 2). Dieses Prozessmodell ist mit Kriterien und Fragestellungen hinterlegt und bildet einen kompletten Rahmen für einen erfolgreichen Absicherungsprozess. Es ist die Grundlage für Test-Assessments bei OEMs und Zulieferern und liefert zugleich die Basis für die Teststrategien im Hause P3.

Bild 2: Die Testkette braucht an vielen Stellen Anpassungen, sobald AI-Algorithmen im Produkt abgesichert werden sollen – bestens zu erkennen am autonomen Fahren, um Ready for AI zu sein.

Bild 2: Die Testkette braucht an vielen Stellen Anpassungen, sobald AI-Algorithmen im Produkt abgesichert werden sollen – bestens zu erkennen am autonomen Fahren. P3 Systems

In Anlehnung daran hat P3 ein Prozessmodell der AI-Readyness erarbeitet, das eine strukturierte Herangehensweise zu Analyse, Aufbau und Optimierung der AI-Anwendung im Produkt und Unternehmen ermöglicht. Dieser Beitrag beschäftigt sich mit einigen Kernelementen dieses Konzepts, während eine vollständige Vorstellung besser im direkten Austausch erfolgt.

Vor AI kommt IA

AI-Methoden basieren immer auf Daten, vielen Daten. Die Fähigkeit, die richtigen Daten in guter Qualität und ausreichender Menge zur Verfügung zu stellen, ist aber alles andere als trivial. Predictive-Maintenance ist dazu ein gutes Beispiel. Anhand der Diagnose- und Betriebsdaten von Fahrzeugen im Feld sollen Verschleiß und Probleme nicht nur besser diagnostiziert, sondern bereits vorausgesagt werden. Das Kundenproblem wird somit gegebenenfalls schon über ein Software-Update gelöst, bevor der Kunde in die Werkstatt muss.

Bild 3: Vereinfachtes Reife-Modell auf dem Weg zur „Data-Company“. Ein Data-Lake, der nur vorhandene Datentöpfe einsammelt, löst nicht die Herausforderung konsistenter Daten. Schon ist man Ready for AI.

Bild 3: Vereinfachtes Reife-Modell auf dem Weg zur „Data-Company“. Ein Data-Lake, der nur vorhandene Datentöpfe einsammelt, löst nicht die Herausforderung konsistenter Daten. P3 Systems

Interessanterweise gibt es aber in den meisten Branchen fast keine robusten Predictive-Maintenance-Lösungen. Pilotanwendungen funktionieren hingegen prima – aber nur für ausgewählte Fälle. Die Ursache liegt auf der Hand: Hochkomplexe Systeme mit vielen Wirkketten erzeugen Millionen von möglichen Vorfällen und Zusammenhängen. Damit AI das erlernen kann, müssen entweder massiv viele und qualitativ hochwertige Datensätze existieren (oder der Mensch bringt Vorwissen anhand von Modellierungen mit ein). Dazu müssten wir konsistente saubere Daten über einen langen Zeitraum, über mehrere Datenbank-Systeme (und die zugehörigen Fachbereichen) hinweg erzeugen.

Die Realität in den Data-Lakes sieht bislang anders aus. Wer für das Training eines Algorithmus‘ darauf angewiesen ist, Daten aus unterschiedlichen Quellen miteinander zu vereinen, findet meist mehr Datenlöcher als Konsistenz vor. Die Koordinations- und Strukturierungsfunktion, der „Information-Architect“, fehlt häufig oder hat es angesichts der historisch gewachsenen Strukturen schwer.

Bild 4: Zum klassischen Entwicklungsprozess kommen durch AI-Methoden neue Prozesse hinzu, die ebenfalls abgesichert und überwacht werden müssen. Insbesondere die Bewertung der Daten- und Algorithmen-Qualität gewinnt an Bedeutung.

Bild 4: Zum klassischen Entwicklungsprozess kommen durch AI-Methoden neue Prozesse hinzu, die ebenfalls abgesichert und überwacht werden müssen. Insbesondere die Bewertung der Daten- und Algorithmen-Qualität gewinnt an Bedeutung. P3 Systems

Zwingend notwendig ist daher die IA – die Information Architecture: eine neue Kompetenz und Rolle im Unternehmen, die eine Brückenfunktion innehat: Sie muss die größtenteils noch unbekannten Anwendungsfälle im Dialog mit den Fachbereichen antizipieren und daraus ableiten, wie die Datenstruktur aufgebaut sein muss (Bild 3).

Neue Kernprozesse

Was ändert sich nun konkret? Bild 4 zeigt schematisch die neuen Elemente, sobald AI im Produktentstehungsprozess hinzukommt. Zum oben dargestellten klassischen Ablauf (hier noch als Wasserfall dargestellt) kommen neue Aufgaben hinzu. Diese neuen Fragestellungen werden im AI Readyness Assessment systematisch hinterfragt.

Ziel ist es, eine Landkarte der heutigen Leistungsfähigkeit zu erhalten und die Lücken in der Systematik, den Fähigkeiten oder den Tools, zu finden, die einen sicheren Umgang mit AI verhindern. Oft sind es dabei gerade die einfachen Fragenstellungen, die zu Ineffizienz im Ablauf führen. Hier eine Auswahl:

  • Wahl des Algorithmus: Die Bandbreite an möglichen Verfahren und ihren Parametrierungen ist riesig. Optimierte Methoden werden im Monatstakt veröffentlicht. Wie kann ich die Suche nach dem optimalen Algorithmus systematisieren? Woher weiß ich, wie gut die Wahl war? Wie mache ich die Wahl unabhängig vom Data Scientist und seinen Vorlieben? Wie oft überprüfe ich die Leistungsfähigkeit des Algorithmus‘ im Vergleich zu neuen Verfahren? Welche Kennzahlen benötige ich dafür?
  • Training: Der Trainingsprozess muss sicherstellen, dass der Algorithmus gut generalisiert und nicht zu stark auf die Trainingsdaten optimiert ist. Welchen Einfluss haben unterschiedliche HW- und SW-Konfigurationen auf den Trainingsprozess? Was passiert, wenn sich mein Sensor technisch verändert? Wann muss ich nachtrainieren?
  • Konfidenz: Wie schlägt sich der Algorithmus im realen Leben? Welche Situationen werden zuverlässig erkannt, wo liegen Entscheidungen sehr nahe beieinander? Was kann ich tun, um dort die Entscheidungsqualität zu erhöhen? Nutze ich die Konfidenz-Informationen für das Qualitätsmanagement?
  • Datenproduktion: Wo bekomme ich hochwertige Trainingsdaten her? Welche Sensoren und Formate muss ich verwenden? Haben die Parameter meiner Trainingsdaten Einfluss auf den Trainingsprozess? Wie kann ich große Mengen an Daten erfassen, weltweit transportieren, versionieren, validieren, freigeben? Kann ich die Trainingsdaten automatisiert annotieren? Wie stelle ich die Qualität von manueller (menschlicher) Annotation sicher? Wie skaliere ich die Annotation? Wie sieht die Qualitätskontrolle für Trainingsdaten aus?
  • Trainingsdaten und Testdaten: Womit genau muss ich meinen Algorithmus trainieren? Wie kann ich den Abdeckungsgrad der Trainingssituationen messen und tracken? Entspricht die statistische Verteilung tatsächlich dem realen Einsatz? Sind die Situationen im realen Einsatz stabil oder verändern sie sich über die Zeit? Welche Situationen sind schlecht abgedeckt? Wie erzeuge ich Trainingsdaten synthetisch oder hybrid? Wie anonymisiere ich Daten, um GDPR-konform zu sein? Baue ich dadurch Artefakte ein, die den Trainingsprozess verfälschen?
  • Validierung: Wie gehen Fachbereiche wie die Gesamtfahrzeug-Erprobung oder die Qualitätssicherung mit dem Thema um? Wie sieht meine Teststrategie aus? Wie verdichte ich den Absicherungsprozess? Wieviel Simulation, wieviel Echtsystem? Was bedeuten Veränderungen in der Konfiguration oder den Trainingsdaten für die Validierung? Wie sieht der Freigabeprozess insgesamt aus? Welche Situationen muss ich noch manuell überprüfen und wie kann ich das automatisieren?

AI näher betrachtet

AI haftet der Ruf an, dass ein trainierter Algorithmus eine Black-Box und nicht nachvollziehbar sei. Diese Aussage ist richtig und falsch zugleich. Das Training von AI-Algorithmen hat zunächst nichts Zufälliges – es handelt sich um eine festdefinierte Vorgehensweise, ein Optimierungsproblem zu lösen. Allerdings führt das Zusammenspiel von großer Lernkapazität und einer enormen Anzahl an Parametern (100 Millionen und mehr) dazu, dass die erlernten Zusammenhänge im besten Fall korrekt, aber für den Menschen nicht ablesbar sind und im schlechtesten Fall kritisches Randwertverhalten verschleiern. In den meisten Fällen lässt sich nicht vernünftig beschreiben, was die Trainingsdaten eigentlich ausmacht.

Bild 5: Ein Neuronales Netz lernt, das Lenkrad in Abhängigkeit vom 2D-Bild zu steuern. Explanation hilft, zu verstehen, ob die erlernten Merkmale sinnvoll sind oder ob sich falsche Muster eingeprägt haben. So werden Systeme Ready for AI.

Bild 5: Ein Neuronales Netz lernt, das Lenkrad in Abhängigkeit vom 2D-Bild zu steuern. Explanation hilft, zu verstehen, ob die erlernten Merkmale sinnvoll sind oder ob sich falsche Muster eingeprägt haben. P3 Systems

Aus diesem Grund ist nicht auf Anhieb klar, ob sich zum Beispiel ein autonomes Fahrzeug richtig verhalten wird, wenn eine unbekannte Situation eintritt (sprich: generalisiert der Algorithmus?), und wie sich die gutartigen Situationen von den bösartigen unterscheiden lassen.

Ein Lösungsansatz liegt darin, aufzudecken, aufgrund welcher Merkmale des Eingangssignals der Algorithmus eine bestimmte Entscheidung getroffen hat. Dazu wird sozusagen zurückgerechnet, welchen Pfad diese Entscheidung entlang des Neuronalen Netzes genommen hat. Bild 5 zeigt eine solche Heatmap. Eine Frage könnte beispielsweise sein, wie weit entfernt die visuellen Merkmale liegen, die der Algorithmus verwendet hat: Achtet er „kurzsichtig“ auf alles, was direkt vor der Fahrzeugnase liegt, oder betrachtet er die richtigen Merkmale in ausreichender Entfernung?

Die nächste Welle rollt bereits

Alle AI-Methoden, die heute in Kundenprodukten im Fahrzeug zum Einsatz kommen, durchlaufen im Entwicklungs- und Absicherungsprozess neue Wege. Allerdings geht das Bündel ab dem Software-Freeze, wenn aus Software und Hardware ein Bauteil wird, den gewohnten Gang durch Produktion und After-Sales. Zwei Fahrzeuge mit dem gleichen Software-Stand unterscheiden sich dann nur marginal voneinander.

Was aber, wenn sich die Software im Fahrzeug eigenständig weiterentwickelt, und wenn sich ein AI-Algorithmus über die Felddaten individuell nachtrainieren kann? Spätestens dann fehlen Absicherungs-, Freigabe- und Risikoprozesse. Wie sieht die Homologation von solchen Fahrzeugen aus? Wie verhindern wir, dass sich Algorithmen in die falsche Richtung optimieren, wie man dies an prominenten Chatbot-Beispielen erleben konnte? Viel Raum für methodische Weiterentwicklung also, die unsere bisherige Logik von starren Prozessen, Meilensteinen und Reifegraden in Frage stellt.

Gewinnen wird, wer auf zwei Beinen steht

Während die Entwicklungsteams von OEM und Zulieferern zur Zeit darum kämpfen, die eigentlichen AI-Funktionen wie beispielsweise das autonome Fahren zum Laufen zu bringen, bleibt die Systematisierung der Prozesskette bislang noch auf der Strecke: Prozesse, Toolketten, Qualifizierung aller Fachbereiche und eine agile Organisation sind jedoch unverzichtbare Bausteine.

P3 vertritt daher folgende Meinung: Wer AI-Methoden erfolgreich ins Feld bringen will, muss beides tun: exzellente Methoden entwickeln und eine exzellente Prozesskette aufbauen. Nur mit durchgängiger Struktur und Systematik wird die eigene Organisation Ready for AI gemacht.

Dr. David Adametz

ist Senior Data Scientist und leitet das Kompetenzcenter Data Analytics der P3 Systems. Er arbeitet an der Absicherung von Autonomous-Driving-Systemen und an der Optimierung von Testprozessen durch AI.

Dr. Christof Horn

ist Geschäftsführer der P3 Systems und verantwortet darüber hinaus die Digitalisierungsaktivitäten. Er begleitet OEMs und Zulieferer der Automobilindustrie in der Digitalen Transformation.

(av)

Sie möchten gerne weiterlesen?