Auf die Schnelle

Das Wesentliche in 20 Sek.

  • Konsistenz der Daten ist zentrale Voraussetzung fürs Machine Learning
  • IIOT-Hub ermöglicht verschiedene Auswertungen
  • Daten aus unterschiedlichen Quellen vergleichbar machen
  • Erst Datenkonsistenz sichern, dann Algorithmus anwenden
Machine Learning funktioniert nur, wenn die Edge Server nicht an ihre Grenzen kommen, etwa hinsichtlich Speicher und Prozessorperformance ©Eisenhans - stock.adobe.com

Wer mittels Machine Learning aus Massendaten Rückschlüsse für Optimierungen ziehen will, muss zuerst eine Normierung und Konsolidierung über alle Datenquellen realisieren. ©Eisenhans – stock.adobe.com

Weil die Datenqualität die wichtigste Determinante in einem Machine Learning-Prozess ist, sollte man sich schon vor Beginn eines solchen Projekts über die gewünschten Ziele im Klaren sein. Hängt doch von dieser Erwartung ab, welche Daten in welcher Form nötig sind, um den erforderlichen Machine Learning-Prozess aufzusetzen. Denn es gibt durchaus Prozesse, bei denen Machine Learning bereits mit nur wenigen Daten zu validen Ergebnissen führen.

Das Ecosystem wird über IIoT-Gateways mit den Daten aus der Fertigungswelt gespeist, die direkt über I/Os und Sensoren oder über die Anbindung an Steuerungen und Kommunikationssysteme erfasst werden.

Das Ecosystem wird über IIoT-Gateways mit den Daten aus der Fertigungswelt gespeist, die direkt über I/Os und Sensoren oder über die Anbindung an Steuerungen und Kommunikationssysteme erfasst werden. compacer

An der Funktionsweise eines Kühltransporters lässt sich der Ablauf beispielhaft veranschaulichen: Das ‚System‘ erkennt anhand der Sensorwerte, welche Temperatur im Inneren des Transporters herrscht, und es kann bei Veränderungen entsprechend reagieren. Die Herausforderung in diesem Fall ist die Konvertierung der Sen-sordaten zu Informationen, die der Rechner verarbeiten und auswerten kann. In diesem Beispiel ist die Datenqualität zwar wichtig, die Datenmenge aber eher sekundär.

Störende Daten entfernen

Betrachtet man dagegen die Funktionsweise einer Spritzgießmaschine, zeigt sich eine andere Situation. Hier wird der Prozess nicht mit einfachen Temperatursensoren, sondern per Ultraschall überprüft. Dabei fallen bereits innerhalb kurzer Zeitfenster eine Vielzahl von Daten an. Diese Daten sind wesentlich aufwendiger so aufzubereiten, damit Algorithmen erkennen können, in welchem Zustand sich das gerade gefertigte Bauteil befindet.

Business Integration Cluster

Der Daten-Versteher

Edbic ist ein Datenintegrationssystem, das alle Beteiligten innerhalb der Wertschöpfungskette miteinander verbindet und so Digitalisierung ermöglicht. Alle Businessdaten unterschiedlicher Formate und Herkunft laufen in Edbic zusammen. Edbic unterstützt zusammen mit dem Event Process Monitoring Tool (Edpem) die Visualisierung der Geschäftsprozesse und sorgt durch ein technisches Monitoring für Übersichtlichkeit und Stabilität (Active Cluster-Architektur), beispielsweise bei internen Abläufen (A2A) oder dem Datenaustausch mit Geschäftspartnern (B2B).

Ohne Regeln keine Algorithmen

Essenziell ist eine regelbasierte Vorgehensweise. Nur dann lassen sich Korrelationen oder Anomalien erkennen. In diesem Fall hat vor allem die Quantität der Daten Auswirkungen auf das Ergebnis: Bei genügend hoher Anzahl an Messwerten des Ultraschallgeräts erkennt der Algorithmus des Rechners sofort selbst kleinste Abweichungen. Dennoch ist es unerlässlich, diese Quantität auf Relevanz hinsichtlich der Zielgrößen zu überprüfen, damit sich der gesamte Vorgang langfristig auf die wesentlichen Daten reduzieren lässt. Die Datenmenge ist in der Regel nicht das Problem. Wichtiger ist es dagegen, die sogenannten negativen Ereignisse im Produktionsalltag zu identifizieren und zu vermeiden.

Smarte Informationen sind gefragt

Bei KI-Technologien wie dem Machine Learning, geht es darum, heterogene Datenformate und -bestände zu konsolidieren, damit Algorithmen aus der Menge der angefallenen Daten Strukturen erkennen und extrahieren können. So entstehen smarte Informationen, aus denen der Nutzer Schlüsse ziehen kann. Die Konsolidierung hat neben der Auswertbarkeit auch den Vorteil, weil, ausgehend von einer großen Datenmenge (Big Data), eine kleine Anzahl an Fehlern nicht ins Gewicht fällt.Anders bei einer geringen Datenmenge: Hier schlagen Fehler sofort durch. Dennoch, für den Konsolidierungsprozess spielt die Datenkonsistenz grundsätzlich eine zentrale Rolle. Denn nur, wenn die den Algorithmen zugrundeliegende Datenbasis eine gute Qualität aufweist, kann auch Machine Learning für gute Ergebnisse sorgen. Bei der Erzeugung konsistenter, einheitlicher Daten hilft es, den Prozess in vier Phasen zu gliedern in:

  • Datenerfassung
  • Basisverständnis und Dateninterpretation
  • Aufbereiten der Daten und
  • Analyse und Verteilung.

In einigen Fällen kann man für den Aufbau der Datenbasis mit bereits vorhandenen Signalen. Vielfach ist es sogar möglich, Daten aus der Maschinensteuerung zu gewinnen und über Schnittstellen direkt in ein IIoT-Gateway zu schreiben. Jedoch wird der Zugang zu den Maschinendaten mitunter durch Restriktionen der Maschinenlieferanten erschwert. Dann müssen die Maschinen zusätzlich mit entsprechenden Sensoren ausgestattet werden, um die relevanten Prozesswerte zu erfassen. Das setzt wiederum voraus, Ursache und Wirkung für bestimmte Muster zu kennen – ein Wiederspruch zum Ansatz aus einer Flut an Daten Abhängigkeiten zu erkennen.

Machine Learning funktioniert nur, wenn die Edge Server nicht an ihre Grenzen kommen, etwa hinsichtlich Speicher und Prozessorperformance

Machine Learning funktioniert nur, wenn die Edge Server nicht an ihre Grenzen kommen, etwa hinsichtlich Speicher und Prozessorperformance Compacer

Sind die Daten gewonnen, geht es darum zu verstehen, welche Werte, Angaben oder Daten für welche Parameter widerspiegeln. Nur wenn man weiß, welcher Sensorwert wofür steht, lässt sich der einzelne Messwert einordnen. Beim Beispiel Kühltransporter ist das einfach, andere Aufgabenstellungen sind durchaus komplexer. Die Dateninterpretation ist aber sehr wichtig, denn sie ist die Grundlage für die Algorithmen, die wiederum die Basis fürs Machine Learning bilden.

In einem weiteren Schritt sind die Daten so aufzubereiten und zu aggregieren, dass die verschiedenen Werte einer oder mehrerer Maschinen konsistent und einheitlich sind. Für diesen Konsolidierungsprozess gibt es bereits Lösungen und Plattformen wie ‚Edbic‘ der Firma Compacer. Sie wandeln die Datenformate entsprechend für das Zielsystem um und interpretieren sie auf Basis von Regeln.

Schlussendlich bereitet ein IIoT-Hub die Daten auf, so dass verschiedene Auswertungen möglich sind. Der IIoT-Hub dient zudem als Gateway, um die Daten zum Bespiel in ein vorhandenes ERP- oder MES-System zu überspielen, in ein Analytics Tool oder in Cloudlösungen wie Mindsphere, IBM Watson oder Microsoft Azure.

Machine Learning – was kommt danach?

Heute schon ist Trend, verstärkt Algorithmen zu nutzen und zwar nicht allein nur fürs Machine Learning. Eine Entwicklung aus der sich weitere KI-Formen entwickeln werden. Die Qualität und Konsistenz der Daten sind dabei von zentraler Voraussetzung, insbesondere vor dem Hintergrund, dass sich sogenannte „schlechte Daten“ nicht ohne weiteres aus einem Machine Learning Prozess wieder herausfiltern lassen. Der Grund: Die einzelnen Schritte beim Machine Learning bauen konsequent und konsistent aufeinander auf. Werden dem System Daten entzogen, die bisher Teil der Berechnung waren, könnte der gesamte Prozesse wie ein Kartenhaus in sich zusammenfallen.