Neue Kernprozesse

Was ändert sich nun konkret? Bild 4 zeigt schematisch die neuen Elemente, sobald AI im Produktentstehungsprozess hinzukommt. Zum oben dargestellten klassischen Ablauf (hier noch als Wasserfall dargestellt) kommen neue Aufgaben hinzu. Diese neuen Fragestellungen werden im AI Readyness Assessment systematisch hinterfragt.

Ziel ist es, eine Landkarte der heutigen Leistungsfähigkeit zu erhalten und die Lücken in der Systematik, den Fähigkeiten oder den Tools, zu finden, die einen sicheren Umgang mit AI verhindern. Oft sind es dabei gerade die einfachen Fragenstellungen, die zu Ineffizienz im Ablauf führen. Hier eine Auswahl:

  • Wahl des Algorithmus: Die Bandbreite an möglichen Verfahren und ihren Parametrierungen ist riesig. Optimierte Methoden werden im Monatstakt veröffentlicht. Wie kann ich die Suche nach dem optimalen Algorithmus systematisieren? Woher weiß ich, wie gut die Wahl war? Wie mache ich die Wahl unabhängig vom Data Scientist und seinen Vorlieben? Wie oft überprüfe ich die Leistungsfähigkeit des Algorithmus‘ im Vergleich zu neuen Verfahren? Welche Kennzahlen benötige ich dafür?
  • Training: Der Trainingsprozess muss sicherstellen, dass der Algorithmus gut generalisiert und nicht zu stark auf die Trainingsdaten optimiert ist. Welchen Einfluss haben unterschiedliche HW- und SW-Konfigurationen auf den Trainingsprozess? Was passiert, wenn sich mein Sensor technisch verändert? Wann muss ich nachtrainieren?
  • Konfidenz: Wie schlägt sich der Algorithmus im realen Leben? Welche Situationen werden zuverlässig erkannt, wo liegen Entscheidungen sehr nahe beieinander? Was kann ich tun, um dort die Entscheidungsqualität zu erhöhen? Nutze ich die Konfidenz-Informationen für das Qualitätsmanagement?
  • Datenproduktion: Wo bekomme ich hochwertige Trainingsdaten her? Welche Sensoren und Formate muss ich verwenden? Haben die Parameter meiner Trainingsdaten Einfluss auf den Trainingsprozess? Wie kann ich große Mengen an Daten erfassen, weltweit transportieren, versionieren, validieren, freigeben? Kann ich die Trainingsdaten automatisiert annotieren? Wie stelle ich die Qualität von manueller (menschlicher) Annotation sicher? Wie skaliere ich die Annotation? Wie sieht die Qualitätskontrolle für Trainingsdaten aus?
  • Trainingsdaten und Testdaten: Womit genau muss ich meinen Algorithmus trainieren? Wie kann ich den Abdeckungsgrad der Trainingssituationen messen und tracken? Entspricht die statistische Verteilung tatsächlich dem realen Einsatz? Sind die Situationen im realen Einsatz stabil oder verändern sie sich über die Zeit? Welche Situationen sind schlecht abgedeckt? Wie erzeuge ich Trainingsdaten synthetisch oder hybrid? Wie anonymisiere ich Daten, um GDPR-konform zu sein? Baue ich dadurch Artefakte ein, die den Trainingsprozess verfälschen?
  • Validierung: Wie gehen Fachbereiche wie die Gesamtfahrzeug-Erprobung oder die Qualitätssicherung mit dem Thema um? Wie sieht meine Teststrategie aus? Wie verdichte ich den Absicherungsprozess? Wieviel Simulation, wieviel Echtsystem? Was bedeuten Veränderungen in der Konfiguration oder den Trainingsdaten für die Validierung? Wie sieht der Freigabeprozess insgesamt aus? Welche Situationen muss ich noch manuell überprüfen und wie kann ich das automatisieren?
Seite 4 von 512345