Künstliche Intelligenz besitzt ein großes Potenzial, um die Leistungsfähigkeit und Genauigkeit moderner visueller Inspektionssysteme zu verbessern. Allerdings ist die ‚klassische‘ Künstliche Intelligenz (KI) wie zum Beispiel Deep Learning kein Wundermittel für die visuelle Teile-Inspektion, und zwar allein schon deshalb, weil man dazu in der Regel sehr viele Trainingsbilder (Daten) benötigt. Diese Bilder sind jedoch oft nur mit sehr hohem Aufwand zu beschaffen. Dagegen benötigt die auf ‚Sparse Modeling‘ basierende KI nur einen kleinen Satz von Trainingsbildern und kann damit selbst auf Embedded Plattformen sowohl KI-Trainingsaufgaben als auch Inferenzalgorithmen ausführen.
Herkömmliche KI-Ansätze bergen Nachteile
- Bildbasiertes Deep Learning muss jedes Detail eines Bildes verarbeiten, um zuverlässige Ergebnisse liefern zu können. Dies ist leistungs- und rechenintensiv sowie mit großen Datentransfers zwischen Prozessor und Speicher verbunden. Eine 60-fps-Kamera mit UHD-Auflösung und 8 Bit Farbtiefe produziert in einer Stunde bis zu 5,18 Terabyte an unkomprimierten Daten, die analysiert werden müssen.
eck-daten
Sparse Modeling ist ein KI-Ansatz für die Bildverarbeitung, der nicht den gesamten BildInhalt durchsucht, sondern nur die zuvor festgelegten Schlüsselmerkmale.
Die isolierten Schlüsselmerkmale sind für den Menschen verständlich, d.h. sie ergeben – im Unterschied zu koventioneller KI – eine erklärbare White Box.
Für die Entwicklung eines neuen Standard-Inferenzmodells werden nur etwa 50 Trainingsbilder benötigt, herkömmliche KI braucht dagegen 1.000 oder mehr Bilder.
Bei Sparse Modeling werden nur verhältnismäßig geringe Datenmengen erzeugt, d.h. die Anwendungen sind damit bestens für Embedded Systeme geeignet.
Bei gleicher Ergebnis-Genauigkeit benötigt Sparse Modelling nur 1 % der Energie, die ein Deep Learning-basierte Ansatz braucht.
Ein weiteres Problem der klassischen KI liegt darin, dass sie sehr viele klassifizierte Bilder benötigt, um zuverlässige Vorhersagen zu treffen. Und auch das verbraucht viel Zeit und Energie. Aktuelle Studien haben gezeigt, dass ein einziges KI-Modell, das auf der Deep-Learning-Technologie basiert, die Umwelt ebenso stark belasten kann, wie fünf Autos über ihren gesamten Lebenszyklus. Embedded Systeme können eine solche Rechenleistung nicht bieten; nur Rechenzentren sind dazu im Stande. Dies allein wäre schon ein Argument, nicht mit KI zu arbeiten. Aber selbst wenn wir den Energieverbrauch mit einkalkulieren und ein solches System einsetzen würden, weil die Verschwendung durch Produktionsausfälle noch viel teurer und umweltschädlicher wäre, gäbe es noch einen weiteren Fallstrick mit konventioneller Deep Learning-basierter KI:
In der Praxis sind die erforderlichen Trainingsdaten nicht innerhalb weniger Tage oder Wochen verfügbar. Es kann ein ganzes Jahr oder sogar länger dauern, um Bilder von tausenden fehlerhaften Teilen aus einer Produktionslinie zu sammeln. Wenn der Produktionsprozess in diesem Jahr geändert wird, kann sich auch die Definition dessen, was ‚gut‘ ist oder die ursprüngliche Charakteristik möglicher Mängel leicht geändert haben, dadurch werden die zuvor gesammelten Daten praktisch nutzlos.
Klassische KI benötigt immer ein Server-Grade-Training mittels Deep Learning, bevor sich ein Inferenzalgorithmus entwickeln lässt, der in der Lage ist, Entscheidungen im Edge-Bereich der Smart Factory zu treffen. Und jeder neue Satz von Bildern benötigt die gleiche ressourcenintensive Schulung. Dieser energie- und zeitfressende Prozess muss für jedes neue Inferenzmodell, welches das vorherige ersetzt, immer wieder aufs Neue durchlaufen werden – ein niemals endender Teufelskreis.
Embedded Systeme bilden das Rückgrat der weltweiten Industrieproduktion und sind so konzipiert, dass sie zuverlässig und ausfallsicher funktionieren; sie bieten eine hohe Rechenleistung bei geringen Energiebedarf und können so ohne Lüfter in einem vollständig geschlossenen Gehäuse betrieben werden. Die Integration von KI mittels Inferenzlogik in diese Systeme führt zu höheren Leistungsanforderungen. Embedded Systeme, die keinen zusätzlichen Spielraum in ihrer thermischen Auslegung besitzen, riskieren durch die KI den Verlust ihrer Robustheit für den 24/7-Langzeitbetrieb. Klassische KI benötigt zudem einen Rückkanal, um die zentrale Cloud mit Big Data zu versorgen. Dies verbraucht ebenfalls zusätzliche Energie und verursacht oft kostspieligen Datenverkehr. Aus diesem Grund waren die Vorzüge der KI bisher nur in High-Performance-Computing Umgebungen sinnvoll nutzbar, in denen darüber hinaus auch die Möglichkeit besteht, Edge-Daten an externe Clouds zu übertragen.
Sparse Modeling vereinfacht Re-Training
Sparse Modeling bietet einen anderen Ansatz und mehr Spielraum, um diese neue Art von KI in Embedded Low-Power-Anwendungen zu integrieren. Es ist mittels Re-Training der Systeme direkt am Edge in der Lage, sich kontinuierlich und dynamisch an wechselnde Bedingungen anzupassen, wie beispielsweise an die Beleuchtung oder an Vibrationen oder wenn Kameras und/oder Geräte bewegt werden müssen.
Im Wesentlichen ist Sparse Modeling ein Ansatz zur Datenerfassung, der sich auf die Identifizierung einzigartiger Merkmale konzentriert. Einfach ausgedrückt interpretiert Sparse Modeling die Daten ähnlich wie der menschliche Verstand. Um beispielsweise Freunde oder Familienmitglieder zu erkennen, betrachtet man nicht jedes einzelne Haar und jeden Millimeter dieser Person, sondern man erkennt sie anhand von Schlüsselmerkmalen wie Augen oder Ohren. Sparse Modeling integriert eine vergleichbare Logik in intelligente Bildverarbeitungssysteme mit der Konsequenz, dass nicht das gesamte Volumen an Big Data verarbeitet werden muss, wie bei konventioneller KI, sondern nur wenige ausgewählte Daten. Sparse Modeling-basierte Algorithmen reduzieren folglich die Daten auf diese einzigartigen Merkmale.
Wenn neue Daten erfasst werden, scannt Sparse Modeling also nicht den gesamten Inhalt, sondern sucht für die Vorhersagen nach bestimmten, zuvor festgelegten Schlüsselmerkmalen. Ein zusätzlicher Vorteil dieses Verfahrens besteht darin, dass die isolierten Merkmale für den Menschen verständlich sind. Sparse Modeling erzeugt somit eine erklärbare White Box KI, was ein weiteres wesentliches Unterscheidungsmerkmal im Vergleich zu konventioneller KI ist. Die ersten Entwicklungsphasen eines Modells, in denen die KI-Engine und kundenspezifische Daten zu einem auf den jeweiligen Anwendungsfall zugeschnittenen Modell zusammengeführt werden, basieren dabei vornehmlich auf menschlicher Expertise. Um ein neues Standard-Inferenzmodell zu entwickeln, benötigt Sparse Modeling für die erste Modellerstellung nur etwa 50 Bilder. Das ist erheblich weniger, als die 1.000 oder mehr Bilder, die für eine herkömmliche KI erforderlich sind. Dies ist ein wesentlicher Vorteil, durch den Entwickler in die Lage versetzt werden, Prüfsysteme der nächsten Generation zu entwickeln, die nicht nur unter optimalen Bedingungen funktionieren, wie zum Beispiel unter sehr konstanten Lichtverhältnissen. Sie gewinnen auch mehr Flexibilität bei der Anpassung an sich ändernde Produktionsprozesse, was auf dem Weg zur industriellen IOT/Industrie 4.0 gesteuerten Losgrößenproduktion unerlässlich ist.
Auf allen wichtigen Geräten lauffähig
Hardware-technisch präsentiert sich eine Sparse Modeling-Plattform ebenso schlank wie ressourcensparend und kann in praktisch jedes Edge-Gerät integriert werden. Sie kann auf eingebetteten x86-Computerplattformen ausgeführt werden und ist sogar für die Implementierung auf Plattformen wie Xilinx und ARM oder Altera und RISC-V vorbereitet. Das Design ist folglich sowohl kompatibel zu Mainstream-x86-Prozessoren als auch zu den aktuell entstehenden Open-Source-Lösungen und damit zukunftssicher. Weil der endgültige Footprint letztlich ganz entscheidend von der Aufgabenstellung und Komplexität des benötigten Modells abhängt, empfiehlt sich bei der Einführung von Sparse Modeling folglich eine modulare Hardware-Plattform auf Basis von Computer-on-Modules, die Closed Loop Engineering-fähig sind und beide Prozessorvarianten bedienen können.
Erste Anwendungen von Sparse Modeling finden sich derzeit vor allem in der Fertigung und Medizintechnik. Die Präzisionsfertigung profitiert von dieser neuen Technologie, weil die Knotenpunkte (Edge Nodes) dank Sparse-Modeling nun genügend Rechenleistung bieten, um Inferenz und Training parallel durchzuführen. Auch wird das Versenden von Daten in die Cloud umgangen, was aus Gründen der Diskretion und/oder eingeschränkter Konnektivität häufig nicht möglich ist. Ein weiteres großes Anwendungsgebiet liegt in der Medizintechnik, beispielsweise bei der Erkennung seltener Erkrankungen, die eben nicht genügend Big Data produzieren, wie sie für die Ausbildung eines Deep Learning-basierten KI-Modells erforderlich wären.
Sparse Modeling ist äußerst energieeffizient
Die bisher erzielten Erfolge mit Sparse Modeling sind sehr überzeugend: Im Rahmen eines Projekts mit einem Industriekunden wurde ein Vergleich eines Sparse Modeling-basierten KI-Tools und einer konventionellen Deep Learning-basierten Technik durchgeführt. Für diese Beispielstudie wurde ein Datensatz bestehend aus 1.000 Bildern von beiden Modellen verwendet, um Vorhersagen zu erstellen. Der Kunde hatte die akzeptierte Modellvorhersagewahrscheinlichkeit mit 90 % definiert. Beide Ansätze lieferten vergleichbare Ergebnisse, aber der Aufwand unterschied sich ganz erheblich: Das auf Sparse Modeling basierende Modell wurde fünfmal schneller trainiert (20 min) als das auf Deep Learning basierende Modell (100 min), obwohl das Sparse Modeling Tool auf einem Standard-x86-System mit Intel-Core-i5-3470S Prozessor und 16 GB RAM ausgeführt wurde. Das Deep-Learning-Modell hingegen benötigte eine industrietaugliche, Nvidia-DEVBOX-basierte Entwicklungsplattform mit vier TITAN-X-GPUs mit jeweils 12 GB Speicher, 64 GB DDR4-RAM sowie ein Motherboard der Asus-X99-E-Workstation-Klasse mit 4-fach PCIe Gen3 x16-Unterstützung sowie Desktop-Prozessoren Intel Core-i7-5930K 6-Core mit 3,5 GHz.
Am Ende verbrauchte der Sparse-Modeling-basierte Ansatz nur 1 % der Energiemenge, die der Deep Learning-basierte Ansatz benötigte – und erzielte dabei die gleiche Genauigkeit. Gibt es noch überzeugendere Argumente? Datenanalysten sollten diese Methode folglich in ihr Portfolio aufnehmen und in neuen KI-Anwendungen einsetzen, um damit sowohl Training als auch Inferenz im Edge-Bereich durchführen zu können.
Nur 50 Bilder erforderlich
Der geringe Speicher- und Performance-Bedarf macht es den OEMs von Bildverarbeitungssystemen leicht, KI zu implementieren. Bestehende Plattformlösungen können meist wiederverwendet werden und die Systemintegration ist relativ einfach, weil sich die Logik des Hacarus+ Software Development Kits (SDK) an gängige Bildverarbeitungssysteme anpasst, ohne dazu viel am Setup ändern zu müssen. Während bestehende visuelle Inspektionssysteme ihre Erstinspektion weiter fortsetzen können, kümmert sich die Software nur um die Bilder, die als ‚nicht gut‘ und somit ‚möglicherweise defekt‘ identifiziert wurden. Mit etwa 50 oder weniger solcher Bilder kann Sparse Modeling bereits mit dem Aufbau eines neuen Inspektionsmodells beginnen. Sobald das Modell von menschlichen Inspektoren validiert wurde, kann es als zweite Inspektionsschleife neben der bestehenden Plattform laufen und die Inspektionsergebnisse über seine Schnittstellen an das etablierte System zurückgeben. Eine optionale HTML-basierte Benutzeroberfläche steht ebenfalls für die Prozessüberwachung bereit. Dabei ist unschwer zu erkennen, dass eine solche Logik auch eigenständig laufen kann. Weil das Preprocessing von Bildverarbeitungsdaten jedoch nicht die Kernkompetenz von Sparse Modeling ist, wird die Anbindung an bestehende Bildverarbeitungslogik empfohlen. Das Sparse Modeling Tool kann als Standardinstallation in der Software-Umgebung des Kunden implementiert werden oder eine per Hypervisor isolierte virtuelle Maschine in einer Cloud nutzen; selbst FPGA-basierte Implementierungen auf applikationsspezifischen Carrierboards sind möglich, um die erforderliche Leistungsaufnahme weiter zu reduzieren.
Zeljko Loncaric
(dw)