Ready for AI – AI-Readyness

In einer Prozesskette erhalten wir nur dann gute Ergebnisse, wenn alle Elemente der Kette ineinandergreifen und ähnlich gut sind. Wer die weltbesten AI-Experten einstellt, aber die Trainingsdaten nicht im Griff hat, wird scheitern. Wer viel in das Training seiner Bildverarbeitung investiert, aber den Freigabeprozess nicht systematisch bedienen kann, scheitert ebenso. Bereits seit vielen Jahren wendet die P3 erfolgreich das Referenzmodell der „Test Readyness“ an (Bild 2). Dieses Prozessmodell ist mit Kriterien und Fragestellungen hinterlegt und bildet einen kompletten Rahmen für einen erfolgreichen Absicherungsprozess. Es ist die Grundlage für Test-Assessments bei OEMs und Zulieferern und liefert zugleich die Basis für die Teststrategien im Hause P3.

Bild 2: Die Testkette braucht an vielen Stellen Anpassungen, sobald AI-Algorithmen im Produkt abgesichert werden sollen – bestens zu erkennen am autonomen Fahren, um Ready for AI zu sein.

Bild 2: Die Testkette braucht an vielen Stellen Anpassungen, sobald AI-Algorithmen im Produkt abgesichert werden sollen – bestens zu erkennen am autonomen Fahren. P3 Systems

In Anlehnung daran hat P3 ein Prozessmodell der AI-Readyness erarbeitet, das eine strukturierte Herangehensweise zu Analyse, Aufbau und Optimierung der AI-Anwendung im Produkt und Unternehmen ermöglicht. Dieser Beitrag beschäftigt sich mit einigen Kernelementen dieses Konzepts, während eine vollständige Vorstellung besser im direkten Austausch erfolgt.

Vor AI kommt IA

AI-Methoden basieren immer auf Daten, vielen Daten. Die Fähigkeit, die richtigen Daten in guter Qualität und ausreichender Menge zur Verfügung zu stellen, ist aber alles andere als trivial. Predictive-Maintenance ist dazu ein gutes Beispiel. Anhand der Diagnose- und Betriebsdaten von Fahrzeugen im Feld sollen Verschleiß und Probleme nicht nur besser diagnostiziert, sondern bereits vorausgesagt werden. Das Kundenproblem wird somit gegebenenfalls schon über ein Software-Update gelöst, bevor der Kunde in die Werkstatt muss.

Bild 3: Vereinfachtes Reife-Modell auf dem Weg zur „Data-Company“. Ein Data-Lake, der nur vorhandene Datentöpfe einsammelt, löst nicht die Herausforderung konsistenter Daten. Schon ist man Ready for AI.

Bild 3: Vereinfachtes Reife-Modell auf dem Weg zur „Data-Company“. Ein Data-Lake, der nur vorhandene Datentöpfe einsammelt, löst nicht die Herausforderung konsistenter Daten. P3 Systems

Interessanterweise gibt es aber in den meisten Branchen fast keine robusten Predictive-Maintenance-Lösungen. Pilotanwendungen funktionieren hingegen prima – aber nur für ausgewählte Fälle. Die Ursache liegt auf der Hand: Hochkomplexe Systeme mit vielen Wirkketten erzeugen Millionen von möglichen Vorfällen und Zusammenhängen. Damit AI das erlernen kann, müssen entweder massiv viele und qualitativ hochwertige Datensätze existieren (oder der Mensch bringt Vorwissen anhand von Modellierungen mit ein). Dazu müssten wir konsistente saubere Daten über einen langen Zeitraum, über mehrere Datenbank-Systeme (und die zugehörigen Fachbereichen) hinweg erzeugen.

Die Realität in den Data-Lakes sieht bislang anders aus. Wer für das Training eines Algorithmus‘ darauf angewiesen ist, Daten aus unterschiedlichen Quellen miteinander zu vereinen, findet meist mehr Datenlöcher als Konsistenz vor. Die Koordinations- und Strukturierungsfunktion, der „Information-Architect“, fehlt häufig oder hat es angesichts der historisch gewachsenen Strukturen schwer.

Bild 4: Zum klassischen Entwicklungsprozess kommen durch AI-Methoden neue Prozesse hinzu, die ebenfalls abgesichert und überwacht werden müssen. Insbesondere die Bewertung der Daten- und Algorithmen-Qualität gewinnt an Bedeutung.

Bild 4: Zum klassischen Entwicklungsprozess kommen durch AI-Methoden neue Prozesse hinzu, die ebenfalls abgesichert und überwacht werden müssen. Insbesondere die Bewertung der Daten- und Algorithmen-Qualität gewinnt an Bedeutung. P3 Systems

Zwingend notwendig ist daher die IA – die Information Architecture: eine neue Kompetenz und Rolle im Unternehmen, die eine Brückenfunktion innehat: Sie muss die größtenteils noch unbekannten Anwendungsfälle im Dialog mit den Fachbereichen antizipieren und daraus ableiten, wie die Datenstruktur aufgebaut sein muss (Bild 3).

Seite 3 von 512345