Das Sammeln, Übertragen, Analysieren und Verdichten der Daten wird in allen Bereichen zu einem beherrschendem Thema und Innovationsfeld.

Das Sammeln, Übertragen, Analysieren und Verdichten der Daten wird in allen Bereichen zu einem beherrschendem Thema und Innovationsfeld. (Bild: NI)

Das Internet der Dinge (Internet of Things, IoT) verheißt die allgegenwärtige Vernetzung und Kommunikation zwischen Menschen und Geräten gleichermaßen. Besonders das Industrial Internet of Things (IIoT) soll es Unternehmen ermöglichen, drohende Ausfallzeiten von Maschinen zu erkennen, die Sicherheit ihres Personals zu gewährleisten oder ganz allgemein die Effizienz ihrer Betriebsabläufe zu verbessern. Sinnvoll wäre also eine Vernetzung aller Geräte innerhalb des Unternehmens, auch über mehrere Standorte hinweg, um die richtigen Daten den richtigen Personen zur rechten Zeit vorlegen zu können. Dies erlaubt es dem Anwender, auf Basis dieser Daten fundierte Entscheidungen zu fällen.

In der Tat handelt es sich beim IoT um das nächste große ‚Ding‘, bestehend aus tausenden und abertausenden, natürlich intelligenten, Sensoren. Die Sensoren wiederum erfassen riesige Mengen an Big Analog Data, die über äußerst schnelle Drahtlosnetzwerke an den Anwender weitergeleitet werden, damit er diese auswerten und entsprechend darauf reagieren kann. Zu den wichtigsten Technologien, die die Entwicklung des IoT beschleunigen werden, zählt daher ganz sicher der Mobilfunkstandard der nächsten Generation – 5G. Damit eng verwoben sind die Themenfelder Big Analog Data, Time-Sensitive Networking (TSN) sowie das Testen von IoT- und IIoT-fähigen Geräten und Systemen.

5G-Prototyping: von der Skizze zur Umsetzung

Unbestritten ist, dass 5G ein Meilenstein in der Evolution von Wireless-Netzwerken ist. Jedoch stehen Forscher bei ihrer Arbeit an 5G vor einigen Herausforderungen. Sie müssen nicht nur dafür sorgen, dass den Anforderungen entsprochen wird, die noch nie dagewesene Wireless-Datenraten mit sich bringen. Auch gilt es, Lösungen für die Netzwerklatenz und -reaktionszeit zu finden – und das bei einer Kapazitätssteigerung um das Tausendfache. Und als ob das nicht schon genug wäre, fordern die Netzbetreiber einen geringeren Energieverbrauch dieser Technologien im Vergleich zur existierenden Infrastruktur.

"In Zehn Jahren sind viele Produktionshallen und Fertigungsstraßen nicht mehr wiederzuerkennen." Rahman Jamal, Global Technology

"In Zehn Jahren sind viele Produktionshallen und Fertigungsstraßen nicht mehr wiederzuerkennen." Rahman Jamal, Global Technology & Marketing Director, National Instruments NI

Spekulationen bezüglich der 5G-Netze gibt es en masse. Aus diesem Grund haben das 3rd Generation Partnership Project (eine Vereinigung von sieben Telekommunikations-Standardisierungsorganisationen) und andere Normungsinstitute mit der Realisierung von Konzepten begonnen. Jetzt ist es an den Forschern, das Fundament für die unterschiedlichsten Bereiche zu schaffen, in denen 5G unseren Alltag künftig bestimmen wird.
Wie lassen sich also diese vielschichtigen Herausforderungen lösen? Die Antwort ist einfach: mit Prototypen, insbesondere solchen, die es gestatten, Tests mit echten Systemen in realen Szenarien noch in der Experimentierphase vorzunehmen. Korrekt umgesetzt können diese 5G-Prototypen zu erheblich verkürzten Markteinführungszeiten beitragen.

Doch nicht nur die Time-to-Market, auch die Zeit für die Erstellung eines funktionstüchtigen Prototypen soll natürlich verringert werden. Um dies zu bewerkstelligen, setzen viele Forscher bereits auf einen plattformbasierten Ansatz, der für einen einheitlichen Entwicklungsprozess sorgt und zudem weniger Kosten und Zeit verschlingt als herkömmliche Methoden. Hierbei wird zuerst mit mathematischen Berechnungen und Simulationen begonnen. Im Anschluss folgt dann die Abbildung des Algorithmus in einem realen System und echter Hardware. Solch ein plattformbasierter Entwicklungsansatz verheißt eine schnellere Umsetzung dieser neuen Entwicklungen, und Forscher an der Lund University, bei Nokia Networks, NYU Wireless und Samsung demonstrieren dies bereits.

Time-Sensitive Networking (TSN)

Das IIoT schreit geradezu nach der Standardisierung von Kommunikationsnetzwerken. Dies ist auch nicht verwunderlich: Immerhin verheißt das IIoT eine Welt voller intelligenter vernetzter Infrastrukturen und Geräte. Und alle erfassen, verarbeiten und analysieren Daten und verfügen über Steuer- und Regelfunktionen – seien es nun Verkehrssysteme, Stromnetze oder Maschinen in der Fertigungshalle. Durch die Vernetzung ergibt sich ein ‚System of Systems‘, das den Datenaustausch zwischen den im Unternehmen oder der Cloud befindlichen Geräten erlaubt. Selbstredend, diese Systeme generieren Unmengen an Daten, sogenannte Big Analog Data, die analysiert und verarbeitet werden müssen. Nur dann lassen sich daraus sinnvolle Erkenntnisse ableiten – die Grundlage für Entscheidungen, die letztlich zu einer optimierten Sicherheit, verbesserten Betriebszeiten und effizienteren Betriebsabläufen führen.

Auch wenn das Gros dieser Rohdaten nicht zeitkritisch ist, gibt es doch eine Reihe von ablauf- und zeitkritischen Daten. Bei ihnen muss die Übertragung strikt innerhalb einer vorgegebenen Latenz und Zuverlässigkeit erfolgen. Problematisch hierbei ist nur, dass ein Großteil der existierenden Netzwerkinfrastrukturen nicht für solch zeitkritische Daten konzipiert wurde. Genau diese Schwachstelle wird das Time-Sensitive Networking (TSN) beseitigen, das zum Standard der nächsten Generation avancieren soll. TSN zielt dabei nicht nur auf Bandbreite, Latenz und Sicherheit ab, sondern auch auf Synchronisation und Interoperabilität und wird gegenüber heutigen Ethernet-Protokollen viele Vorteile bieten.

IoT- und IIoT-fähige Geräte brauchen universelle Testumgebung

Intelligentere Systeme erlauben die Verarbeitung der Daten direkt am Ort ihrer Erfassung. Eine unternehmensweite Lösung zur Datenverwaltung und -analyse stellt dann sicher, dass die richtigen Daten den richtigen Personen zur rechten Zeit zur Verfügung stehen.

Intelligentere Systeme erlauben die Verarbeitung der Daten direkt am Ort ihrer Erfassung. Eine unternehmensweite Lösung zur Datenverwaltung und -analyse stellt dann sicher, dass die richtigen Daten den richtigen Personen zur rechten Zeit zur Verfügung stehen. NI

Beim Testen eines Sensors müssen physikalische Stimuli oft mit anderen Sensor- und Wandlertypen reproduziert werden können. Beim Testen einer Batterie müssen beispielsweise Leistungssenke, -aufnahme und -messung möglich sein. Beim Testen von Wireless-Kommunikationssystemen hingegen müssen RF-Signale erzeugt und auch analysiert werden.

Diese Liste an unterschiedlichen Funktionen je nach Test ließe sich beliebig fortsetzen. So kommen Anbieter schnell zu einem Prüfstand mit nahezu unzählig vielen dedizierten Messgeräten, dessen Kosten-, Platz- und Energieaufwand immens ist. Wie also kann man dies umgehen?
Statt eines dedizierten Testsystems für jeden einzelnen Prüfling, braucht es ein einziges intelligentes Prüfsystem. Solche Systeme sind an alle smarten Geräte anpassbar und in der Lage, dessen Eigenschaften umfassend zu testen. Und wie wird so ein System flexibel anpassbar? Mittels Software.
Die Funktionalität und Flexibilität Software-definierter Testsysteme ist unerreicht und praktisch unbegrenzt – vergleichbar mit einem Smartphone. Dessen Funktionen und Eigenschaften lassen sich über Apps und Firmware-Updates ergänzen. Durch solch einen Software-zentrierten, plattformbasierten Ansatz kann das System stets auf dem aktuellen Stand der Technik gehalten werden und ist auch für künftige Anforderungen gerüstet.

Big Analog Data: Messtechnik 4.0

Durch die rapide anwachsende Nutzung von Sensor- und Netzwerktechnologien gestaltet sich die Integration von Messtechnik in Systeme einfacher und kostengünstiger als je zuvor. Das belegt ein Blick zurück: In den letzten zehn Jahren sind nicht nur die Datenerfassungsgeräte, sondern auch die Sensoren intelligenter und ihr Einsatz dezentraler geworden. Auch befinden sich die Elemente, die die Daten verarbeiten, nun viel näher am Sensor, am Ort des Geschehens. Die intelligenten Sensoren wiederum integrieren mittlerweile die Signalkonditionierung sowie die Vor-Verarbeitung und die digitale Schnittstelle – und das in einem äußerst kleinen Formfaktor.

So verwundert es nicht, dass die Signalverarbeitung oft direkt vor Ort geschieht, was man heute gerne mit ‚Edge Analytics‘ bezeichnet. Doch dies setzt voraus, dass die Messsystemsoftware auch dazu in der Lage ist, die Analyse näher am Edge durchzuführen. Software für solche Edge-basierte Systeme wird künftig die rasche Konfiguration und Verwaltung tausender miteinander vernetzter Datenerfassungsgeräte gestatten.
Um mit der Menge an analogen Daten Schritt halten zu können, die Sensoren künftig erzeugen, müssen Unternehmen auf intelligentere, softwarebasierte Messknoten umsteigen.

Sind die Daten von intelligenten Systemen einmal erfasst, müssen sie effizient verwaltet und konsolidiert werden sowie individuell analysierbar sein. Das verlangt eine unternehmensweite Lösung zur Datenverwaltung und -analyse, die mit den Engineeringdaten vieler verschiedener Quellen umgehen kann. Denn nur so lassen sich die richtigen Daten den richtigen Personen zur rechten Zeit vorlegen, sodass sie auf Basis dieser Daten fundierte Entscheidungen treffen können.

Rahman Jamal,

ist Global Technology & Marketing Director, National Instruments.

(sk)

Sie möchten gerne weiterlesen?