Vermutlich sind die vielen Bezeichnungen der Thematik oft ein Grund für Verwirrung. Umschreiben die Begriffe Datenanalyse, Business Intelligence, Big Data Analytics und Data Science nicht alle dasselbe? Die Antwort ist: ja und nein. Aus rein technischer Sicht drehen sich diese Schlagworte um die Erhebung und Analyse von Daten und vor allem um die Nutzung der daraus gewonnenen Erkenntnisse. Aus Sicht der Anwender und auch der Berufsbilder sind allerdings gewisse Abgrenzungen etabliert, jedoch mit erheblicher Unschärfe.
Die sogenannte Business Intelligence (BI) ist bereits in den meisten Unternehmen erfolgreich im Einsatz, wenn auch primär im Verwaltungsbereich. Dass sich BI in der Produktion bisher nicht durchgesetzt hat, hat einen einfachen Grund. Während die kaufmännischen Fachabteilungen die Daten direkt in nur einem oder einigen wenigen Systemen strukturiert und gut beschrieben vorfinden, sind die Systeme auf Shopfloor-Ebene sehr heterogen und liegen oftmals semistrukturiert vor.
Big Data in der Automatisierungspyramide
Die hinreichend bekannte Automatisierungspyramide besteht aus drei Stufen. Die Spitze dieser Pyramide beschreibt die Planungssysteme der kaufmännischen Ebene, das Enterprise Resource Planning (ERP), welches durch BI-Systeme bereits weitgehend transparent geworden ist. Dies zeigt jedoch, dass die BI hinsichtlich Produktion und Logistik nur einen minimalen Umfang abdeckt.
Den mittleren Teil der Automatisierungspyramide bildet das Manufacturing Execution System (MES), auf dem man die Prozesse der Produktion und Fertigung bereits im Groben durchplant und dokumentiert. Auf dieser Ebene entstehen aus Kundenaufträgen Fertigungsaufträge und daraus die einzelnen Arbeitsschritte.
Der dritte und unterste Ebene stellt den Shopfloor dar, der alle Maschinen und Arbeitsplätze der Fertigung, Montage, Kommissionierung und Logistik umfasst. Die enorme Vielfalt der Automatisierungs- und IT-Systeme und die damit verbundene Datenhaltung sowie die Geschwindigkeit der Datenerfassung und Datenaktualisierung, die meist im Sekunden- oder Millisekundenbereich erfolgt, sind der Grund dafür, dass bisher kein Standard-BI-System in diese Tiefen vorgedrungen ist.
Dass die Analyse von Daten auf der Shopfloor-Ebene so herausfordernd ist, mag die eine Seite der Medaille sein, der potenzielle Nutzen ist die andere. Während die IT-Systeme aus der Spitze der Automatisierungspyramide vor allem mit aggregierten Daten arbeiten, aus denen sich Informationen über vollendete Tatsachen entwickeln lassen, generieren Maschinen auf der untersten Ebene Daten, die umfassende und tiefgreifende Auskunft über Produktions- und Logistikprozesse geben können.
Für die Nutzung von Maschinendaten gibt es viele Anwendungsszenarien: von der Qualitätsanalyse von Maschinen und Werkstücken über die Optimierung der Materialflüsse, Wege- und Maschinenanordnung bis hin zur Optimierung von Lagerbeständen und Bestellmengen. Der Einstieg in solche Szenarien lässt sich bereits mit einem simplen, aber wirkungsvollen Ansatz erreichen, nämlich der Schaffung von Prozesstransparenz.
Höhere Detailschärfe in der Prozessanalyse
Obwohl der digitale Wandel in der Industrie bereits thematisiert ist, wird er in der betrieblichen Praxis jedoch nicht gelebt. Dies zeigt sich bereits daran, dass Firmen nur über wenig Transparenz ihrer Unternehmensprozesse verfügen, obwohl bereits eine Erfassung der Prozesse erfolgt, teils global in den IT-Systemen, teils lokal in den einzelnen Maschinen und Transportmitteln. Es fehlt nur die Verknüpfung auf eine intelligente Weise, denn in diesen Daten sind wichtige Kenngrößen, Schlüsselwerte und Zeitstempel enthalten, die bereits heute in den meisten Industriebetrieben eine umfassende Prozesstransparenz herstellen können. Dies ist ein Musterbeispiel für nicht genutzte Datenpotenziale, denn wenn man hier ansetzt, lassen sich übermäßige Wegezeiten, zu häufige Zusatzarbeitsgänge, Doppelarbeiten und Wartezeiten sehr leicht aufdecken.
Predictive Maintenance bedingt Big Data
Der Begriff Big Data war für Produktionsleiter bis vor kurzem noch ein Zukunftsthema, dabei stellt Big Data bereits bei heute üblichen Anwendungsfällen eine reale Herausforderung dar, wie beispielsweise bei der Analyse von Maschinendaten zur frühzeitigen Erkennung von Instandhaltungsbedarfen. Typische Daten, die hierbei eine Rolle spielen, sind Temperaturwerte an unterschiedlichen Messpunkten der Maschine, Drehzahlen und Umdrehungsgeschwindigkeiten sowie Druckwerte und Bewegungsfrequenzen. Mit richtig ausgewählten Sensoren lassen sich beispielsweise die Bewegungen von rotierenden Maschinen in einem Frequenzmuster erfassen, und bereits leichte Abweichungen von einem maschinell als gewöhnlich erkannten Muster können auf Fehler im Antrieb, an Dichtungen oder bei der Stabilität der Maschine hindeuten.
Die Auswertung von Maschinendaten in Echtzeit gehört zu den anspruchsvollsten Bereichen von Big Data, denn Sensoren generieren Daten heute im Sekundentakt oder sogar weit darunter, so dass binnen weniger Stunden Datenberge im Terabyte-Bereich entstehen können. Auf Grund der Heterogenität der heutigen Maschinenlandschaft liegen Maschinendaten in den unterschiedlichsten Formaten vor, weshalb konventionelle Monitoring- und Analyse-Tools hier angesichts der Vielfalt, Geschwindigkeit, Größe und Veränderbarkeit dieser Datensätze sehr schnell an ihre Grenzen stoßen. Vor diesem Hintergrund ist ein neuer, speziell auf diese einzigartige Klasse von Daten ausgelegter Weg erforderlich, um beispielsweise die Produktion zu optimieren oder Probleme durch den Einsatz von Diagnosedaten frühzeitig zu erkennen. Big-Data-Analytics-Methoden ermöglichen es, diese Daten nach bislang unentdeckten Fehlermustern zu überprüfen. Werden Unstimmigkeiten festgestellt, erfolgt eine Untersuchung, ob es sich beispielsweise bei widersprüchlichen Datensätzen oder statistischen Ausreißern um wichtige Informationen mit Aussagekraft über Ineffizienzen oder Fehlerquellen handelt. So bekommen Daten, die vorher auf Grund des fehlenden Kontextes ohne Aussage waren, eine Bedeutung hinsichtlich des Produktionszustandes, und zwar mit Blick auf die Zukunft, die sich aus den Daten ableiten lässt.
Prädiktive Systeme sind das bessere Six Sigma
Die intelligente Auswertung von Sensordaten ermöglicht die automatische Erkennung von Maschinenausfällen oder etwa von Produktionsfehlern. Durch die Zusammenführung von Daten aus unterschiedlichsten Sensorquellen sowie von Metadaten aus MES-, ERP- und PLM-Systemen lassen sich erste Symptome, die sich in Werkstücken oder Prozessparametern äußern, zuverlässig deuten. Daraufhin kann man gezielt und frühzeitig in den Prozess eingreifen. Der durch prädiktive Analysen ermöglichte situationsgerechte Austausch von Ersatzteilen und auf den Punkt genaue Wartungsmaßnahmen gehören zu den Paradebeispielen von Big Data Analytics. Diese Anwendungsfelder lassen sich außerdem nach Belieben und individuell erweitern, denn wertvolle Rohdaten entstehen überall auf dem Shop-Floor. So lassen sich unter Einsatz von Big Data Analytics unzählige Produktionsvariablen im Prozessfluss analysieren, um die Produktreinheit abzusichern. Oder es lassen sich dort, wo konventionelle statistische Methoden und IT-Systeme überfordert sind, Ausschussraten drastisch verbessern.
Die Intelligenz steckt in der Software, nicht in der Hardware
Sensorhersteller sprechen häufig von sogenannten intelligenten Sensoren oder Sensorsystemen. Dabei sind Sensoren möglichst einfache Konstrukte, die jeweils ganz bestimmte Umweltbedingungen sehr zuverlässig erfassen sollen. Sensorsysteme sind eine Kombination von Sensoren, die sich teilweise gegenseitig überwachen, aber dennoch beschränkt sich die Intelligenz auf wenige Befehlsketten. Die Intelligenz steckt daher in den Softwarealgorithmen, nicht in den Sensoren.
Der Erfolg der mechatronischen Systeme in der Produktion und Logistik ermöglicht bereits heute eine elektronische Datenerfassung über die gesamte Supply Chain. Im Rahmen des derzeit entstehenden Internet of Things (IoT) wird es mit den an das Internet angebundenen Geräten in naher Zukunft völlig neue Möglichkeiten, aber auch neue Herausforderungen an die Unternehmens-IT geben. Die Auswertung von Maschinendaten in Echtzeit gehört zu den anspruchsvollsten Bereichen von Big Data. Ein Beispiel ist die Frequenzerkennung der Rotationskräfte in Maschinen, mit der sich Schwingungsänderungen in Bereichen unterscheiden lassen, die den menschlichen Sinnen verborgen blieben. Solche Schwingungsänderungen können Anomalien darstellen, mit denen sich Schwächen im Produktionsablauf aufzeigen lassen.
Eck-Daten
Warum Business Intelligence für die Industrie 4.0 bislang nicht tief genug ansetzt, liegt an der enormen Vielfalt fertigungsnaher IT-Systeme, verbunden mit der schnellen Erfassung, Aktualisierung und Archivierung von Sensor- und Maschinendaten im Sekunden- und Millisekundenbereich. Die Big-Data-Analyse auf der Shop-Floor-Ebene ist daher Voraussetzung für alle Bereiche der Produktionsoptimierung.
Grundverständnis ist der erste Schritt
Big Data in der Produktion wird demzufolge zum neuen Stellhebel für die Fertigung, um Durchlaufzeiten zu verkürzen, Produktionsschwankungen zu meistern oder die Gesamtsteuerung deutlich zu vereinfachen. Damit wird Big Data zur Chance und Gefahr zugleich, denn im stetigen Wettbewerb ist damit zu rechnen, dass selbst Traditionsunternehmen schnell in Bedrängnis geraten, sollten sie in Sachen Digitalisierung und Nutzung der dabei entstehenden Daten nicht schritthalten können. Dafür ist es jedoch nicht notwendig, dass jeder Produktionsleiter selbst zum Datenexperten wird. Ein Grundverständnis über Datenbanken und generelle Methoden der Auswertung von Daten in Kooperation mit einem darauf spezialisierten Dienstleister ist jedoch die unbedingte Grundlage, um die entsprechende Richtung einschlagen zu können.
Benjamin Aunkofer
(pet)