Big Data in der Produktion wirkt sich bis in die System- und IT-Infrastruktur aus.

Big Data in der Produktion wirkt sich bis in die System- und IT-Infrastruktur aus.National Instruments

Wissenschaftler und Entwickler brauchen für ihre Analysen riesige Datenmengen. Beispielsweise wird das Large Synoptic Survey Telescope der National Science Foundation, das im Jahr 2016 online gehen soll, pro Woche über 140 TB an Daten sammeln. Hersteller großer Gasturbinen generieren während eines Turbinen-Testlaufs täglich über 10 TB Daten. In einer großen Anlage sind pro Sekunde 152.000 Sensorwerte zu erfassen. In nur einem Jahr summiert sich das auf rund vier Billionen Messwerte. Diese Beispiele zeigen: Big Data ist nicht nur bei Absatzprognosen im Consumer-Umfeld ein Trend, sondern immer öfter auch in der Industrie. Die Datenmenge (Volume) ist jedoch nicht das einzige Merkmal. Meist ist Big Data durch eine Kombination von mehreren ‚Vs‘ gekennzeichnet: Volume (Volumen), Variety (Vielfalt), Velocity (Geschwindigkeit) und Value (Wert).

Visibility (Sichtbarkeit) als weiterer Aspekt wird ebenso zu einem zentralen Merkmal. Es besagt, dass der geografisch dezentrale Zugriff auf geschäftliche, technische und wissenschaftliche Daten zunehmend eine Notwendigkeit für global agierende Unternehmen ist. Beispielsweise können Daten, die Messgeräte auf einem Feld im Mittleren Westen der USA erfassen, auch für die Entwicklungsabteilung in Europa von Interesse sein. Oder Prüfingenieure in Fertigungseinrichtungen in Südamerika und China benötigen Zugang zu den Daten des jeweils anderen, um Vergleiche durchzuführen. Diese und ähnliche Use-Cases von Big Data verlangen miteinander verbundene IT-Systeme, zum Beispiel über eine Cloud, in die wiederum die unterschiedlichen Datenerfassungssysteme ihre Informationen einspeisen.

Die Informationen aus Big Analog Data unterscheiden sich dabei von anderen großen Datenmengen, etwa gesellschaftlichen Daten (Youtube, Facebook oder Flickr) oder denen, die in IT-Systemen entstehen. Big Analog Data umfasst primär Messgrößen aus der physikalischen Welt wie Spannung, Druck, Beschleunigung, Schwingung, Temperatur oder auch Geräusche. Dabei handelt es sich um die schnellste Kategorie von Big Data. Schließlich haben analoge Signale normalerweise einen kontinuierlichen Signalverlauf und benötigen eine Digitalisierung – häufig mit kurzen Abtastintervallen und hoher Auflösung.

Die Gliederung in die drei Säulen ermöglicht bisher nicht denkbare Einblicke.

Die Gliederung in die drei Säulen ermöglicht bisher nicht denkbare Einblicke.National Instruments

Lösungsansatz Big Data: das Drei-Säulen-Modell

Rückschlüsse aus den in riesigen Mengen anfallenden analogen Daten zu ziehen, stellt neue Herausforderungen an die Datenanalyse, -suche und -integration sowie an die Berichterstellung und Systemwartung. Damit Anwender mit dem exponentiellen Datenwachstum Schritt halten können, gilt es Antworten auf diese Probleme zu finden. Die Grundlage ist eine Architektur mit drei Säulen, die den Einblick vom Zeitpunkt der Datenerfassung (Sensoren) bis zu den Analysen in den Backend-Infrastrukturen bietet. Der Datenfluss beginnt am Sensor (Säule 1) und setzt sich mit der Datenerfassung in den Systemknoten (Säule 2) fort. Hier finden erste Echtzeitanalysen statt. Diese vorgefilterten Daten werden der klassischen IT-Infrastruktur als dritte Säule übergeben. In dieser Infrastruktur werden ältere Daten von Servern, Speicherplätzen und Netzwerken verwaltet, organisiert und weiter analysiert. Abschließend erfolgt die Archivierung für die spätere Nutzung.

Die Gliederung in die drei Säulen ermöglicht bisher nicht denkbare Einblicke. Über Echtzeitanalysen lässt sich unmittelbar die Reaktion eines Steuerungssystems feststellen. Parallel dazu können in der Säule 3 die gespeicherten Daten für eine Vergleichsanalyse mit den aktuellen Daten abgerufen werden. So sind etwa jahreszeitlich- oder verschleißbedingte Unterschiede im Verhalten einer Turbine oder Produktionsanlage aufspürbar. Um solche Zusammenhänge zu erkennen, braucht es allerdings verschiedene Datenvisualisierungsprodukte und -technologien in den Säulen 2 und 3.

Lösungen für Big Analog Data bestehen für gewöhnlich aus vielen Datenerfassungskanälen, die mit den Systemknoten verbunden sind. Bei solch komplexen Strukturen gewinnen Zuverlässigkeit, Verfügbarkeit, Wartung und Handhabung an Bedeutung – speziell die der Systemknoten, da diese in die IT-Infrastrukturen integriert sind. Die Wartung und Verwaltung von Big-Analog-Data-Infrastrukturen wird sich daher der von heutigen IT-Systemen (Rechner und Server) annähern und deren Prozesse übernehmen. Dazu zählen Verteilung, Zustandsüberwachung, Software-Updates, Sicherheitsüberwachung, Diagnose, Kalibrierung und Ereignisprotokollierung.

Stefan Kuppinger

ist Chefredakteur der IEE.

(sk)

Sie möchten gerne weiterlesen?