Die RWTH Aachen speichert Fertigungsdaten fast roh.

Die RWTH Aachen speichert Fertigungsdaten fast roh. Wikimedia Commons / DARPA

Jede produzierende Einrichtung, egal ob kleines oder mittleres Unternehmen (KMU), Großunternehmen oder Forschungseinrichtung, stand mit großer Wahrscheinlichkeit bereits einmal vor der Frage, welche Daten relevant sind und daher erfasst und gespeichert werden müssen. Was bislang kaum möglich war, hat sich jetzt „extrem vereinfacht“, konstatiert der RWTH-Lehrstuhl. Somit können künftig alle Daten gespeichert werden. „Mit dem Big-Data-Lake-Konzept ist uns das nun gelungen. Fertigungsdaten werden nach einer minimalen Vorverarbeitung so roh wie möglich auf einem leicht skalierbaren, mehrfach verteilten Dateisystem im eigenen Netzwerk zentral persistiert“, erläuterte Dr. Daniel Trauth, Oberingenieur am Lehrstuhl für Technologie der Fertigungsverfahren des Werkzeugmaschinenlabors (WZL) der RWTH Aachen. „So können wir auch in Zukunft, wenn sich Fragestellungen ändern oder neue Blickwinkel auf die Daten relevant werden, auf valide historische Daten zurückgreifen.“

Zum einen hat der Lehrstuhl damit „eine perfekte Datenbasis für das Anlernen und Modellieren von extrem präzisen KI-Algorithmen“, führte Joachim Stanke, Senior Solution Architect am Lehrstuhl weiter aus. „Zum anderen können diese entwickelten KI-Algorithmen wiederum auf die rasanten Datenströme fertigender Maschinen angewandt werden, um näherungsweise in Echtzeit eine Entscheidungsfindung für Prozess, Maschine oder Peripherie abzuleiten.“

Um die großen Mengen an Fertigungsdaten zu speichern, setzt der Lehrstuhl für Technologie der Fertigungsverfahren des Werkzeugmaschinenlabors der RWTH Aachen auf Hardware von Dell Technologies.

Um die großen Mengen an Fertigungsdaten zu speichern, setzt der Lehrstuhl für Technologie der Fertigungsverfahren des Werkzeugmaschinenlabors der RWTH Aachen auf Hardware von Dell Technologies. WZL / RWTH Aachen

Stabile Hardware und Metadaten-Informationen

Hardwareseitig setzt das WZL dabei auf die stabile und zuverlässige Hardware von Dell Technologies. Softwareseitig kommt eine Lambda-Architektur basierend auf der Apache-Hadoop-Familie zum Einsatz. Sie wird durch ein semantisches Datenmanagement der Firma Hot Springs, Aachen, perfektioniert. Dieses Datenmanagement gewährleistet die lückenlose und präzise Anreicherung der Fertigungsdaten um entscheidende Metainformationen, wobei eine künstliche Intelligenz (KI) bereits bei der Datenaufnahme typische Datenmuster erkennt und Zusammenhänge und Metainformationen vorschlägt. „So werden auch in Zukunft wichtige Zusammenhänge nachvollziehbar und rekonstruierbar bleiben, selbst wenn die aktuelle Generation der Mitarbeiterinnen und Mitarbeiter nicht mehr am Institut ist“, erklärte Dr. Max Haberstroh, CEO von Hot Springs.

In einem nächsten Schritt wird das zentrale ‚Big Data Lake‘-Konzept um ein dezentrales Edge-Computing-Netzwerk ergänzt, mit dessen Hilfe schnell und effizient bereits an den Fertigungsmaschinen eine Prozessüberwachung und Datenanalysen durchgeführt werden können. Für rechenintensive Aufgaben können die Edge Devices dann auf den zentralen Big Data Lake zurückgreifen.

Im Anschluss erfolgt die Implementierung einer Machine Cloud des WZL, welche als Multiplattform aus Edge und Cloud insbesondere den Datenaustausch über die verschiedenen WZL-Standorte und -Stakeholder hinweg ermöglicht. Abgesichert über eine Blockchain können Datenintegrität und Datensouveränität der Urheber jederzeit lückenlos gewährleistet werden, GAIA-X-kompatibel. „Was bis dahin unmöglich erschien, wird alltäglich sein: Die gemeinsame Entwicklung von KI-Algorithmen auf verschiedenen Datensätzen unterschiedlicher Stakeholder für maximale Effektivität in produzierenden Supply Chains“, sagte Prof. Thomas Bergs, geschäftsführender Direktor des WZL und Inhaber des Lehrstuhls für Technologie der Fertigungsverfahren.