Intelligente Maschinen mit Edge-KI

Wie Edge-KI Industrieanlagen smarter macht

Künstliche Intelligenz verlässt das Rechenzentrum: Edge-KI verlagert die Intelligenz in Maschinen und Sensoren. Das beschleunigt Reaktionen, senkt Kosten und schafft Datensouveränität.

Automatisierte Fertigung mit Edge-KI: Intelligente Roboter und vernetzte Sensoren analysieren Daten direkt an der Maschine – für schnellere Entscheidungen und effiziente Produktion ohne Cloud-Abhängigkeit.

Am 14. Oktober 2025 fand der digitale Thementag „Edge-KI: Lokale Intelligenz für Industrieanwendungen“ von all-electronics.de statt. Im Mittelpunkt stand die Frage, wie sich künstliche Intelligenz (KI) zunehmend vom Rechenzentrum in die Maschinen und Geräte der Industrie verlagert – dorthin, wo die Daten entstehen. Das Konzept der Edge Artificial Intelligence (Edge AI) verspricht schnellere Reaktionen, bessere Datensouveränität und geringere Netzwerklast. Der Thementag zeigte: Diese Entwicklung ist längst Realität.

Edge-KI: Lokale Intelligenz für die Industrie

  • Am 14. Oktober 2025 fand der digitale Thementag „Edge-KI: Lokale Intelligenz für Industrieanwendungen“ statt. Im Fokus stand die Verlagerung von KI aus dem Rechenzentrum direkt in die Maschinen, um schnellere Reaktionen und bessere Datensouveränität zu ermöglichen.
  • Traditionell werden Sensordaten in die Cloud gesendet, was für Echtzeitanalysen unpraktisch ist. Edge-KI bringt die Verarbeitung direkt zur Maschine, was besonders in zeitkritischen Anwendungen von Vorteil ist.
  • Der Markt für Edge-KI wächst rasant, mit einem prognostizierten Anstieg von 25 Milliarden US-Dollar im Jahr 2025 auf 143 Milliarden US-Dollar bis 2034. Die Industrie treibt dieses Wachstum maßgeblich voran.
  • Praxisbeispiele zeigen, wie Edge-KI in der Steuerungstechnik und bei der vorausschauenden Wartung eingesetzt wird. Diese Technologien ermöglichen es, Anomalien frühzeitig zu erkennen und die Effizienz industrieller Prozesse zu steigern.

Diese Infobox wurde von Labrador AI generiert und von einem Journalisten geprüft.

Vom Cloud-Paradigma zur Edge-Ära

In klassischen Industrie-Setups fließen Sensordaten erst in die Cloud, bevor ein Algorithmus sie auswertet. Das funktioniert für langfristige Analysen – aber nicht, wenn jede Sekunde zählt. Ein Vibrationssensor, der auf Anomalien reagiert, darf keine Minuten auf eine Rückmeldung warten. Hier setzt Edge-KI an: Sie verlagert die Inferenz direkt an die Maschine.

Das Marktpotenzial ist enorm. Laut Precedence Research wächst der globale Edge-KI-Markt von rund 25 Milliarden US-Dollar im Jahr 2025 auf 143 Milliarden US-Dollar bis 2034 – ein jährliches Plus von etwa 21 Prozent. Besonders die Industrie treibt das Wachstum: Allein in Deutschland ist der Markt für industrielle IoT-Lösungen 2025 rund 35 Milliarden US-Dollar schwer und soll bis 2029 auf knapp 49 Milliarden steigen.

Die Gründe liegen auf der Hand: lokale Datenverarbeitung senkt Latenzen, reduziert Cloudkosten und stärkt die Datensouveränität.

Praxisbeispiel 1: Kompakte Intelligenz für die Steuerung – Embedded AI mit MathWorks

Christoph Stockhammer, Application Engineer bei MathWorks, gab Einblick in die Werkstatt der Embedded-KI. Sein Ziel: neuronale Netze so weit zu verschlanken, dass sie auf winziger Hardware lauffähig bleiben – und trotzdem präzise arbeiten. „Das eigentliche Problem ist nicht das Training in der Cloud, sondern die Umsetzung in die Praxis – auf einem Mikrocontroller, der vielleicht 256 Kilobyte RAM hat“, so Stockhammer.

Er zeigte, wie aus einem in TensorFlow trainierten Modell durch geschickte Kompression und Codegenerierung ein lauffähiges C/C++-Programm für Embedded-Hardware entsteht. Das Ganze mit durchgehendem Workflow: von der Modellintegration über die Optimierung bis hin zur automatisierten Codeausgabe für Plattformen wie ARM Cortex, NVIDIA Jetson, DSPs oder sogar FPGAs.

Beispiel aus der Praxis: Virtuelle Sensorik

In einem realen Projekt diente ein neuronales Netz als virtueller Sensor, der den Ladezustand einer Batterie in Echtzeit schätzt – ein typisches Einsatzfeld etwa in Elektrofahrzeugen oder Energiespeichern. Das Modell wurde zunächst in Python trainiert, dann nach MATLAB importiert und dort quantisiert und verdichtet.

Das Ergebnis:

  • Reduktion der Modellgröße von 1 MB auf 70 kB,
  • Laufzeitoptimierung auf unter 1 Millisekunde pro Inferenz,
  • Energieverbrauch um mehr als 60 Prozent gesenkt,
  • Vorhersagegenauigkeit weiterhin über 98 Prozent.

„In der Praxis bedeutet das: Wir können solche Modelle direkt auf einem NXP- oder STM32-Mikrocontroller ausführen – also auf Hardware, die bislang nur einfache Regelalgorithmen gefahren hat“, erklärt Stockhammer.

Das ist ein InfoKASTEN

Was ist Edge-KI?

Edge-KI (Edge Artificial Intelligence) bezeichnet KI-Modelle, die direkt auf Geräten oder Maschinen laufen – ohne Cloud-Verbindung.

Welche Vorteile bietet Edge-KI in der Industrie?

Schnellere Entscheidungen, geringere Latenzen, weniger Cloudkosten und volle Datensouveränität.

Welche Hardware wird für Edge-KI genutzt?

Typisch sind Embedded-Prozessoren wie ARM Cortex, NVIDIA Jetson oder STMicro MP25-SoCs.

Wie funktioniert Modellkompression?

Durch Quantisierung und Pruning werden KI-Modelle verkleinert, um sie auf leistungsschwacher Hardware lauffähig zu machen.

Welche Branchen profitieren besonders?

Automotive, Energie, Fertigung und Qualitätskontrolle – überall, wo lokale Reaktionsgeschwindigkeit zählt.

Kompression mit System

Stockhammer unterschied zwei zentrale Kompressionsarten:

  • Strukturelle Kompression durch Pruning und Projektion, bei der unwichtige Verbindungen oder redundante Layer entfernt werden.
  • Datentyp-Kompression durch Quantisierung, bei der 32-Bit-Gleitkommazahlen auf 8 oder 16 Bit reduziert werden.

Ein Praxisvergleich mit einem LSTM-Modell für Schwingungsanalyse zeigte: Die Parameterzahl konnte um über 90 Prozent reduziert werden – von 400.000 auf 32.000 –, ohne signifikanten Genauigkeitsverlust.

Von der Theorie zur Steuerungsebene

Im nächsten Schritt wurde der generierte Code auf ein echtes Embedded-System portiert – in diesem Fall eine Steuerplatine mit ARM Cortex-M7. Über eine Hardware-in-the-Loop-Simulation prüfte MathWorks, wie schnell und präzise das Modell im Vergleich zur Simulation reagiert. „Das Entscheidende ist nicht nur, dass der Code läuft“, so Stockhammer. „Er muss deterministisch und reproduzierbar laufen – und sich zertifizieren lassen.“ Gerade in Automotive-, Luftfahrt- und Energieanwendungen sei das die Eintrittskarte für den Serieneinsatz.

Praxisbeispiel 2: Frühwarnsystem am Rand – Predictive Maintenance mit Cicor

Elias Kettunen von Cicor Nordic Engineering, zeigte, dass Edge-KI nicht nur Daten spart, sondern echte Ausfälle verhindern kann. Sein Team arbeitet an einem Edge-basierten Anomalieerkennungssystem für Maschinen – entwickelt im Rahmen eines europäischen Forschungsprojekts. „Ein einziger ungeplanter Stillstand kann Hunderttausende kosten. Wir wollen Systeme, die nicht nur Daten sammeln, sondern Anomalien eigenständig erkennen und verstehen“, sagte Kettunen.

Architektur des Systems

Die Plattform basiert auf einem STMicro MP25-System-on-Chip, das CPU, GPU und NPU in einem Gehäuse vereint. Darauf läuft ein eigens angepasstes Yocto-Linux, das speziell für Edge-Anwendungen mit niedriger Latenz konzipiert wurde.

  • Als Framework nutzt Cicor TensorFlow Lite,
  • Die Daten stammen von Vibrations-, Temperatur- und Stromsensoren an Motoren, Pumpen und Lagern,
  • Die Analyse erfolgt vollständig lokal, ohne Daten in die Cloud zu schicken.

KI trifft Praxis: Ein Lager im Stresstest

Ein Kugellager wurde unter realen Lastbedingungen betrieben, bis erste Anomalien auftraten. Das eingesetzte Autoencoder-Modell lernte zunächst die typischen Signaturen eines gesunden Betriebs – Schwingungsmuster, Frequenzspektren, Temperaturverläufe. Dann kam der entscheidende Moment: Als das Lager beginnende Unwuchten zeigte, meldete das Modell eine Abweichung – rund acht Stunden, bevor ein klassischer Schwellenwert-Algorithmus reagiert hätte. Kettunen erläutert: „Das Modell erkennt nicht nur, dass etwas anders ist, sondern wie stark sich das Verhalten von der gelernten Normalität entfernt. Das ist der Unterschied zwischen Überwachung und echter Intelligenz.“ Die Kombination aus Autoencoder und autoregressivem Modell erlaubt es, Trendverläufe zu analysieren und allmähliche Veränderungen zu erkennen – also jene Fehler, die sich über Tage oder Wochen einschleichen.

Vom Labor in den Betrieb

Aktuell testet Cicor die Plattform mit Industriepartnern in zwei Szenarien:

  1. Fertigungslinien für Elektromotoren – hier erkennt das System Unwuchten und Lagerschäden an rotierenden Teilen.
  2. Offshore-Pumpen – hier läuft die KI autark, ohne ständige Netzverbindung, und meldet Abweichungen per Satellit.

Ein weiteres Projekt untersucht die optische Qualitätskontrolle: Edge-Kameras mit integrierten NPUs führen Bildklassifikation direkt vor Ort aus – kein Upload, keine Latenz, keine Cloudkosten. Kettunen sieht darin die Zukunft: „Je mehr Intelligenz an der Maschine selbst sitzt, desto resilienter wird das System. Wir sprechen von lernenden Fabriken, die nicht nur Fehler erkennen, sondern aus ihnen lernen.“

Fazit: KI wandert an den Rand – und mitten in die Produktion

Der Thementag machte deutlich, dass Edge-KI nicht mehr Zukunftsvision, sondern industrieller Alltag ist. Ob in der Batteriesteuerung, bei der Lagerdiagnose oder in der Qualitätskontrolle – die Intelligenz zieht an den Rand des Netzwerks und verändert die Art, wie Produktion funktioniert.

Die Kombination aus leistungsfähigen Embedded-Prozessoren, optimierten KI-Modellen und robusten Software-Toolchains ermöglicht Systeme, die schnell reagieren, lokal entscheiden und sich selbst verbessern. Oder, wie Moderator Martin Probst abschließend formulierte: „Die KI muss nicht mehr in die Cloud. Sie ist längst dort, wo sie hingehört – mitten in der Maschine.“

Autor

Martin Probst

Redakteur bei all-electronics.de