Datenbasierte Produktionsoptimierung mittels IDI

Datenbasierte Produktionsoptimierung mittels IDI
Softing

Warum sprechen gerade jetzt alle von Industrie 4.0, vom Industrial Internet, Internet of Things und Data Analytics? Weil unsere Welt auf der zweiten Hälfte des Schachbretts angekommen ist und die künstliche Intelligenz eine neue Stufe erreicht.

Der Legende nach soll ein indischer Herrscher dem Erfinder des Schachspiels einen Wunsch gewährt haben. Dieser wünschte sich für das erste Feld eines Schachbretts ein Weizenkorn und für jedes weitere die doppelte Anzahl. Der Herrscher war anfangs verwirrt über die vermeintliche Bescheidenheit und realisierte erst spät, dass er schon für das 11. Feld über eintausend, für das 21. über eine Million und für das 32. Feld – gerade die Hälfte der 64 Felder eines Schachbretts – bereits über zwei Milliarden Weizenkörner schuldete.

Die Analogie mit dem Schachbrett zeigt die Entwicklung in der Automation und IT: Sensoren, Steuerungen bis hin zu Maschinen generieren Unmengen an Daten. Cloud-Anbieter erkämpfen sich Marktanteile mittels immer mehr und preiswerteren Angeboten für öffentliches wie privates Hosting. Offene Kommunikationsstandards sind die Norm, in und außerhalb der Fabrik. Data Analytics ist aus der Forschung in der Geschäftswelt angelangt. Die Summe dieser Entwicklungen bietet bislang ungeahnte Möglichkeiten, darunter eine datenbasierte Produktionsoptimierung.

Datenbasierte Verbesserung der Anlageneffektivität

Softing hat 2015 die Industrial Data Intelligence Gruppe ins Leben gerufen. Ziel dieser Initiative ist es, Kunden zu unterstützen, werthaltige Informationen aus ihren Produktionsdaten zu gewinnen und Optimierungen anzustoßen.

Optimierung bedeutet in den meisten Fällen eine Verbesserung der Gesamtanlageneffektivität (OEE: Overall Equipment Effectiveness), das heißt die gesamtheitliche Verbesserung von Verfügbarkeit, Leistung und Qualität. Sicher, OEE ist kein neues Thema – der datenbasierte Ansatz mittels maschinellen Lern-Algorithmen dagegen schon. Der datenbasiert Ansatz ist notwendig, weil die Menge, Geschwindigkeit und Vielfältigkeit der heute anfallenden Daten die Analyse-Fähigkeiten des Bedienpersonals, von Instandhaltern und Experten bei weitem übersteigen.

Ein repräsentativer Anwendungsfall ist die vorausschauende Wartung. Diese zielt darauf ab, den größten Teil der nicht-altersbedingten Ausfälle zu reduzieren und somit die Anlagenleistung zu erhöhen. Anstelle der heute flächendeckend eingesetzten reaktiven oder vorbeugenden Wartung, bei der fest eingeplante Wartungszeiten das Leistungspotential der Anlage drücken, sagen maschinelle Lern-Algorithmen den Ausfall konkreter Anlagenteile voraus und ermöglichen so eine bedarfsgerechte Wartung spezifischer Teile in produktionsfreien Zeiten.

Sammeln, analysieren, entscheiden, implementieren

Zunächst wird im Austausch mit dem Kunden der kommerzielle Wert von Daten in relevanten Anwendungsfällen bestimmt. Ist das gegeben, wird ein Konzept entwickelt, das die gefundenen Potentiale erschließt. Neben der technischen Architektur, dem Sicherheitskonzept, der Datenverarbeitung, Analytics, Visualisierung, Integration sowie der Erstellung eines Prototyps steht dabei auch die Messbarkeit des Erfolgs im Vordergrund. Der gesamte Prozess baut auf der Kunden-Expertise auf; wo relevant, werden externe Partner zur Zusammenarbeit herangezogen. Nachdem die Lösung beim Kunden implementiert ist, bewegt sich die eigentliche Arbeit in einer fortdauernden Schleife von Datensammlung und -analyse über das Treffen von Entscheidungen zur Implementierung und wieder zurück.

Maschinelles Lernen: Magie oder nicht?

Anlagendaten, die in der Vergangenheit bereits gesammelt (aber nicht verarbeitet) wurden, lassen sich heute ebenso nutzen, um Störungen vorherzusehen. Was geht da genau vor? Sind wir tatsächlich auf einer Ebene der künstlichen Intelligenz angekommen, die des Menschen ebenbürtig wäre oder diese sogar übersteigt?

Typische Korrelations-Grafiken auf Basis bereinigter Daten

Typische Korrelations-Grafiken auf Basis bereinigter Daten KNIME

Anders als bei klassischen Applikationen, etwa einer Regelschleife resultiert beim maschinellen Lernen die Lösung nicht direkt aus dem von Menschen geschriebenen Software-Code. Vielmehr suchen Algorithmen in Daten nach Muster. Das Wesen des maschinellen Lernens ist, dass überhaupt ein Muster existiert – zum Beispiel eine Korrelation zwischen bestimmten Produkteigenschaften und physikalischen Messwerten – die sich nicht mathematisch beschreiben lassen, aber durch Algorithmen auf Basis von Daten gefunden werden können. Dabei kann man die Algorithmen mit Lösungen füttern (supervised learning) oder man überlässt es dem Algorithmus selbst, Muster zu finden (unsupervised learning).

Im letzten Fall geht es darum, auf Basis von Daten einer normal funktionierenden Maschine oder Anlage zu erkennen, was bisher nicht eingetroffen ist, nämlich eine Störung. Dazu werden im ersten Schritt auf Basis bereinigter Daten, das heißt ursprünglich falsche oder veraltete, redundante inkonsistente oder falsch formatierte und dann korrigierte DatenKorrelationsgrafiken produziert. Diese zeigen dem Daten-Analysten beziehungsweise immer öfter dem für den Prozess zuständigen Mitarbeiter, ob und zwischen welchen Daten es eine und welche Korrelation gibt.

Danach nutzt man die Daten der einwandfrei funktionierenden Anlage, um das Modell mit Grenzwerten zu trainieren. Sobald das Modell dann mit abweichenden Daten, die letztlich fehlerhafte Baugruppen, Maschinen oder Prozesse repräsentieren, gefüttert wird, schlägt es Alarm; abhängig von der Anzahl und Länge der Überschreitungen per Mail (klein) oder per Sirene (groß). Auch wenn maschinelles Lernen die Fähigkeiten des Menschen übersteigt, in großen Mengen von Daten Korrelationen zu finden, es ist keine Magie.