AI näher betrachtet

AI haftet der Ruf an, dass ein trainierter Algorithmus eine Black-Box und nicht nachvollziehbar sei. Diese Aussage ist richtig und falsch zugleich. Das Training von AI-Algorithmen hat zunächst nichts Zufälliges – es handelt sich um eine festdefinierte Vorgehensweise, ein Optimierungsproblem zu lösen. Allerdings führt das Zusammenspiel von großer Lernkapazität und einer enormen Anzahl an Parametern (100 Millionen und mehr) dazu, dass die erlernten Zusammenhänge im besten Fall korrekt, aber für den Menschen nicht ablesbar sind und im schlechtesten Fall kritisches Randwertverhalten verschleiern. In den meisten Fällen lässt sich nicht vernünftig beschreiben, was die Trainingsdaten eigentlich ausmacht.

Bild 5: Ein Neuronales Netz lernt, das Lenkrad in Abhängigkeit vom 2D-Bild zu steuern. Explanation hilft, zu verstehen, ob die erlernten Merkmale sinnvoll sind oder ob sich falsche Muster eingeprägt haben. So werden Systeme Ready for AI.

Bild 5: Ein Neuronales Netz lernt, das Lenkrad in Abhängigkeit vom 2D-Bild zu steuern. Explanation hilft, zu verstehen, ob die erlernten Merkmale sinnvoll sind oder ob sich falsche Muster eingeprägt haben. P3 Systems

Aus diesem Grund ist nicht auf Anhieb klar, ob sich zum Beispiel ein autonomes Fahrzeug richtig verhalten wird, wenn eine unbekannte Situation eintritt (sprich: generalisiert der Algorithmus?), und wie sich die gutartigen Situationen von den bösartigen unterscheiden lassen.

Ein Lösungsansatz liegt darin, aufzudecken, aufgrund welcher Merkmale des Eingangssignals der Algorithmus eine bestimmte Entscheidung getroffen hat. Dazu wird sozusagen zurückgerechnet, welchen Pfad diese Entscheidung entlang des Neuronalen Netzes genommen hat. Bild 5 zeigt eine solche Heatmap. Eine Frage könnte beispielsweise sein, wie weit entfernt die visuellen Merkmale liegen, die der Algorithmus verwendet hat: Achtet er „kurzsichtig“ auf alles, was direkt vor der Fahrzeugnase liegt, oder betrachtet er die richtigen Merkmale in ausreichender Entfernung?

Die nächste Welle rollt bereits

Alle AI-Methoden, die heute in Kundenprodukten im Fahrzeug zum Einsatz kommen, durchlaufen im Entwicklungs- und Absicherungsprozess neue Wege. Allerdings geht das Bündel ab dem Software-Freeze, wenn aus Software und Hardware ein Bauteil wird, den gewohnten Gang durch Produktion und After-Sales. Zwei Fahrzeuge mit dem gleichen Software-Stand unterscheiden sich dann nur marginal voneinander.

Was aber, wenn sich die Software im Fahrzeug eigenständig weiterentwickelt, und wenn sich ein AI-Algorithmus über die Felddaten individuell nachtrainieren kann? Spätestens dann fehlen Absicherungs-, Freigabe- und Risikoprozesse. Wie sieht die Homologation von solchen Fahrzeugen aus? Wie verhindern wir, dass sich Algorithmen in die falsche Richtung optimieren, wie man dies an prominenten Chatbot-Beispielen erleben konnte? Viel Raum für methodische Weiterentwicklung also, die unsere bisherige Logik von starren Prozessen, Meilensteinen und Reifegraden in Frage stellt.

Gewinnen wird, wer auf zwei Beinen steht

Während die Entwicklungsteams von OEM und Zulieferern zur Zeit darum kämpfen, die eigentlichen AI-Funktionen wie beispielsweise das autonome Fahren zum Laufen zu bringen, bleibt die Systematisierung der Prozesskette bislang noch auf der Strecke: Prozesse, Toolketten, Qualifizierung aller Fachbereiche und eine agile Organisation sind jedoch unverzichtbare Bausteine.

P3 vertritt daher folgende Meinung: Wer AI-Methoden erfolgreich ins Feld bringen will, muss beides tun: exzellente Methoden entwickeln und eine exzellente Prozesskette aufbauen. Nur mit durchgängiger Struktur und Systematik wird die eigene Organisation Ready for AI gemacht.

Seite 5 von 512345