Interview mit Steve Stoddard, Sonatus

„Die größten Herausforderungen sind heterogene Plattformen“

Edge-KI soll Fahrzeuge intelligenter machen – doch heterogene Plattformen, begrenzte Rechenleistung und Legacy-Architekturen bremsen die Skalierung. Steve Stoddard von Sonatus erklärt im Interview, wie OEMs KI-Modelle effizient ins Fahrzeug bringen.

4 min
Steve Stoddard von Sonatus erklärt im Interview, welche architektonischen Herausforderungen Edge-KI im Fahrzeug mit sich bringt, wie OEMs Modellkomplexität und Rechenressourcen ausbalancieren und warum Softwareabstraktion für die Skalierung entscheidend wird.

Während sich Fahrzeuge zu softwaredefinierten und zunehmend KI-gesteuerten Systemen entwickeln, wird die Implementierung von Edge-Intelligenz – also direkt im Fahrzeug – zu einer zentralen Architekturaufgabe. Automobilhersteller müssen dabei Modellkomplexität, verfügbare Rechenressourcen, Sicherheitsanforderungen und Kosteneffizienz miteinander in Einklang bringen und gleichzeitig auf heterogenen Plattformen sowie unter den Einschränkungen bestehender Legacy-Systeme arbeiten.

Steve Stoddard, Principal Product Manager AI bei Sonatus, beschäftigt sich genau mit dieser Schnittstelle zwischen Architektur und Skalierbarkeit. In seinem bevorstehenden Vortrag auf der Automotive Computing Conference US 2026 mit dem Titel „Beyond Autonomy: Scaling Edge AI for Smarter, Safer Vehicles“ erläutert er, wie sich Edge-KI effizient auf General-Purpose-ECUs, Gateways und Domänencontrollern einsetzen lässt. Im Vorfeld der Konferenz hatten wir Gelegenheit, mit ihm zu sprechen.

Edge-KI im Fahrzeug: Warum heterogene Plattformen die Skalierung erschweren

Alles zur Automotive Computing Conference

logo-automotive-computing-conference-neutral

Die Automotive Computing Conference konzentriert sich auf die Herausforderungen der Sicherheit, der funktionalen Sicherheit, der Cloud-Konnektivität und der zunehmenden Komplexität des Fahrzeugdesigns. Das Ziel ist es, traditionelle Ansätze zu revolutionieren und an die Bedürfnisse der Automobilindustrie anzupassen. Hochkarätige Referenten werden am 18. und 19. November 2026 in München in die Welt des Automotive High Performance Computing eintauchen und ein breites Spektrum an Aspekten abdecken.

Weitere Infos zur Automotive Computing Conference gibt es hier oder auf dem LinkedIn-Kanal.

Zudem findet 2026 auch die 3. ACC in Amerika am 25. und 26. März 2026 in Detroit statt.

Welche architektonischen Herausforderungen entstehen, wenn Edge-KI über Fahrzeugplattformen hinweg skaliert wird?

Stoddard: Die größten Herausforderungen ergeben sich aus der Heterogenität der Plattformen. Jede Plattform verfügt über ihre eigene Kombination aus ECUs, SoCs, Sensoren, Datensignalen und Nachrichten-Definitionen. Ein KI-Modell, das auf einem Fahrzeug problemlos läuft, lässt sich auf einem anderen möglicherweise nicht einsetzen – etwa weil dem Zielsteuergerät der erforderliche Compute-Headroom fehlt, weil es keinen Zugriff auf die benötigten Dateneingänge hat oder weil andere Nachrichtenbezeichnungen verwendet werden.

Selbst wenn die zugrunde liegende Logik portierbar ist, müssen KI-Modelle häufig für unterschiedliche Fahrzeuge neu kalibriert werden. Außerdem kann zusätzlicher Engineering-Aufwand erforderlich sein, um sie an andere Nachrichtenbezeichnungen, Signalparameter oder Timing-Anforderungen anzupassen. Diese Fragmentierung führt dazu, dass jede Implementierung eher zu einem maßgeschneiderten Integrationsprojekt wird als zu einer skalierbaren Fähigkeit.

ADT: Wie bringen OEMs Intelligenz, Compute-Beschränkungen und Kosten in realen Implementierungen ins Gleichgewicht?

Stoddard: KI-Workloads im Fahrzeug werden häufig nach Domänen getrennt. ADAS und andere sicherheitskritische Steuerungen werden bereits während der Architekturdefinition und der Festlegung der Kernfunktionen dedizierten ECUs zugewiesen.

Andere KI-Funktionen – etwa Komfort-, Personalisierungs- und Convenience-Anwendungen – werden, sofern ausreichender Headroom vorhanden ist, häufig auf gemeinsam genutzte Ressourcen von Infotainment-ECUs oder anderen High-Performance-Computing-Plattformen ausgelagert.

In den mittleren bis späten Phasen eines Fahrzeugprogramms ist dieser Headroom in der Regel jedoch bereits ausgeschöpft. Um mit den vorhandenen Compute-Beschränkungen umzugehen, ist es daher üblich, intelligente Funktionen mit einfacheren, kalibrierten Algorithmen umzusetzen, die Look-up-Tabellen für die jeweiligen Betriebsdomänen verwenden.

Softwareabstraktion und virtuelle Sensoren: Wie Edge-AI praktisch eingesetzt wird

ADT: Welche Rolle spielt Softwareabstraktion bei der Beschleunigung der Edge-AI-Einführung?

Stoddard: Die Abstraktion von CAN- oder Ethernet-Netzwerken sowie von Signaldefinitionen ermöglicht eine höhere Portabilität von KI-Modellen zwischen verschiedenen Fahrzeugplattformen.

So können beispielsweise die Eingänge eines KI-Modells im Vorfeld mit VSS-Signalnamen versehen werden. Die Zuordnung von VSS zu CAN kann dann für jedes Fahrzeugmodell gepflegt werden. Wenn ein OEM ein KI-Modell von einem Fahrzeug auf ein anderes portieren möchte, lassen sich die erforderlichen Konvertierungen automatisch über diese Abbildungen durchführen.

Historisch gesehen war die Pflege solcher Zuordnungen sehr arbeitsintensiv. Inzwischen können LLM-basierte Systeme einen Großteil der Übersetzungs- und Wartungsarbeit automatisieren. Dadurch können OEMs die Entwicklung und Kalibrierung von Modellen auf mehr Fahrzeuge ausweiten und so sowohl die Entwicklungskosten als auch die Time-to-Market reduzieren.

Welche Edge-AI-Fähigkeiten werden aus Ihrer Perspektive zuerst echten Kundennutzen liefern?

Stoddard: Abseits von ADAS, Fahrer- und Insassenüberwachung sowie autonomen Funktionen sehen wir ein wachsendes Interesse an virtuellen Sensoren. Sie sind für OEMs attraktiv, weil sie die Stücklistenkosten (BOM) reduzieren und damit potenziell Kostenvorteile an Kunden weitergeben können.

Flottenbetreiber nutzen bereits ähnliche virtuelle Sensoren, um ihre Betriebskosten zu senken. Auch Diagnostik und Anomalieerkennung bieten großes Potenzial, das Besitzererlebnis zu verbessern.

Ein Großteil dieser Anwendungen ist derzeit noch cloudbasiert. In den kommenden 12 bis 24 Monaten erwarten wir jedoch eine zunehmende Verlagerung solcher Funktionen direkt ins Fahrzeug.

KI in der Serie: Welche Automotive-Anwendungen heute bereits Mehrwert liefern

Welche KI-fähigen Fahrzeugfunktionen erzeugen heute bereits echten Mehrwert über Showcase-Demos hinaus?

Stoddard: ADAS-Funktionen wie automatisches Notbremsen, adaptiver Abstandsregeltempomat und Spurhalteassistent gehören zu den ausgereiftesten und am weitesten verbreiteten KI- beziehungsweise Machine-Learning-Anwendungen im Fahrzeug. Sie liefern bereits heute in großem Maßstab erhebliche Sicherheits- und Fahrerassistenzvorteile. Auch Fahrerüberwachungssysteme, etwa zur Erkennung von Müdigkeit und Ablenkung, sind technologisch sehr weit entwickelt. Gleichzeitig stehen neue regulatorische Vorgaben bevor, die ihren Einsatz in wichtigen Regionen verpflichtend machen werden.

Was sind die wichtigsten Voraussetzungen in Architektur, Sicherheit und Toolchains, um KI über ganze Fahrzeugportfolios hinweg zu skalieren?

Stoddard: Architektur ist dabei ein zentraler Faktor. Standardisierte Runtimes, Datenschnittstellen und Pipelines sowie die Abstraktion von Datensignalen und Hardware sind entscheidend, um Skalierung zu ermöglichen. Auch die Konsolidierung von Rechenleistung sowie die Auswahl von Prozessoren mit Neural-Compute-Fähigkeiten schaffen zusätzliche Kapazität für KI-Funktionen. Aus Sicherheitsgründen müssen sicherheitskritische und nicht sicherheitskritische Workloads getrennt werden. Modelle sollten außerdem in containerisierten Umgebungen bereitgestellt werden, damit OEMs die Nutzung von Rechen- und Speicherressourcen steuern können.

Die Toolchains müssen zudem robuste Funktionen für das Versionsmanagement von Modellen, Einblick in Modell-KPIs und Ressourcennutzung im Fahrzeug sowie Bereitstellungsmechanismen bieten, die Promotion, Degradierung und Rollbacks von Modellen über verschiedene Fahrzeugplattformen hinweg unterstützen.

Welche Architekturprinzipien prägen heute die Fahrzeugplattformen der nächsten Generation?

Stoddard: OEMs arbeiten weiterhin an vollständig softwaredefinierten Netzwerken mit serviceorientierten Schnittstellen, erweiterten Diagnosefunktionen und einer geringeren Anzahl leistungsfähiger High-Performance-Computing-Einheiten innerhalb zonaler Architekturen. Nachdem einige Hersteller jedoch auf Herausforderungen bei umfassenden plattformübergreifenden Architekturwechseln gestoßen sind, verfolgen viele inzwischen einen schrittweisen Transformationsansatz. Statt bestehende Architekturen vollständig zu ersetzen, entwickeln sie diese zunehmend evolutionär weiter.

Wo bremsen Legacy-Konzepte weiterhin Skalierbarkeit und langfristige Upgrade-Fähigkeit aus?

Stoddard: Der klassische Ansatz „eine ECU pro Funktion“, kombiniert mit einer Integration von Software und KI-Modellen direkt auf Signalebene ohne ausreichende Abstraktion, führt dazu, dass jede KI-Funktion zu einem individuellen Integrationsprojekt wird – häufig mit viel zusätzlichem Glue Code. Hinzu kommen veraltete Richtlinien zur Datenerfassung, die sowohl die Modellentwicklung als auch das erneute Training ausbremsen können. Auch traditionelle Over-the-Air-Release-Zyklen, die auf seltene Updates ausgelegt sind, stehen im Widerspruch zum iterativen Charakter der Verbesserung von KI-Modellen.

Partnerschaften werden über den gesamten Automotive-Computing-Stack hinweg immer wichtiger. Welche Art von Partnerschaften wird in den nächsten drei Jahren am meisten zählen – strategische, technologische oder regulatorische?

Stoddard: Technologische Partnerschaften werden in den kommenden drei Jahren besonders wichtig sein – vor allem, wenn es darum geht, KI-Modelle über ganze Fahrzeugflotten hinweg zu skalieren.

Der Lebenszyklus eines KI-Modells umfasst viele unterschiedliche Domänen – darunter Fahrzeugsysteme, Data Science, Machine Learning, Halbleiterentwicklung, Softwareentwicklung und Fahrzeugintegration. Es ist kaum möglich, all diese Kompetenzen vollständig im eigenen Unternehmen aufzubauen und gleichzeitig wettbewerbsfähige Kosten zu halten.

Die wichtigste Priorität für OEMs besteht deshalb darin, eine KI-Modell-Toolchain zu identifizieren, die ihre Anforderungen erfüllt und gleichzeitig Runtimes, Schnittstellen und Pipelines standardisiert.

Der Artikel erschien ursprünglich auf Englisch bei unserer Schwesterpublikation Automotive Digital Transformation.