Neben dieser smarten Rechenleistung spielt auch die Kommunikationsfähigkeit eine immer stärkere Rolle - und hier ist Ethernet der klare Motor der Entwicklung: Mit einem Kommunikationsprotokoll vom Sensor bis hinauf zum Managementsystem oder sogar zum Verkaufsrechner – Industrie-4.0-Stichwort Serienproduktion mit Losgröße Eins.
Neben den Umbrüchen in den Abstraktionsebenen zeichnen sich auch in der realen Welt Veränderungen ab: Die Intelligenz rückt immer näher an den Ort des Geschehens, ist also im IIoT-Device am Edge verbaut. Damit spielen Baugröße und Wärmeentwicklung eine immer wichtigere Rolle. Die Lösung sind skalierbare Bausteinfamilien, die genau das im Chip integriert haben, was auch wirklich in der Anwendung gebraucht wird – alles, was unnötig Platz und Strom verbraucht, wird gestrichen. Je nach Applikation kann das eine durchaus knifflige Aufgabe sein.
Visualisierung bündeln
Es gibt aber auch klare Eckpunkte wie: „Muss ein Display angeschlossen werden?“ Falls nein, entfallen die Grafikeinheit und die entsprechenden Schnittstellen – man spricht in diesem Zusammenhang auch von „Headless“-Applikationen. Die Visualisierung von Zustand und Abläufen wird ganz gezielt ausgelagert. In der Theorie soll die bildliche Darstellung in der Cloud erfolgen, in der Praxis will der Anwender aber ein Display vor Ort haben – nicht zwingend an jedem einzelnen Device, aber in ihrer Nähe, um eingreifen zu können, falls etwas nicht den Erwartungen entspricht.
Erfahrene Anwender „spüren“ oftmals, dass etwas in ihrer Produktion anfängt aus dem Ruder zu laufen und wollen dann gegensteuern. Diese Aufgabe könnte auch der „Visualisierungsrechner“ im Fog übernehmen. Er braucht dafür allerdings die entsprechende Bandbreite, um die Daten der IIoT-Devices zu sammeln und die Rechenperformance, um sie mit Methoden des Predictive Maintenance auszuwerten. Darüber hinaus kann dieser Rechner auch übergeordnete Steuerungs- bzw. Koordinationsaufgaben übernehmen, also die üblichen Aufgaben der klassischen Leitebene. Er ist wie ein Dirigent eines Orchesters – er muss nicht jedes Notenblatt der einzelnen Musiker kennen, sondern sie zu einer Einheit verbinden und koordinieren.
Klare Trennung der Operational Technology durch Fog-Rechner
Manchmal muss ein Fog-Rechner auch trennen können, besonders wenn die Datensicherheit gefährdet ist: Die Netze von OT (Operational Technology) und der IT sollen klar auseinander gehalten werden und die Deterministik der OT-Netze darf nicht durch zusätzliche Payload wie Verschlüsselung belastet werden. Ein Rechner im Fog, der als Gateway und Firewall dient – also nur die nötigen Daten durchlässt und diese entsprechend ver- und entschlüsselt – ist oftmals die favorisierte Lösung. Damit sind viele echtzeitfähige Ethernet-Schnittstellen gefordert, um die Einzelstränge des OT auszuwerten sowie zusätzlich mindestens einen „normalen“ Ethernet-Port, der die Ergebnisse in Richtung Cloud schickt. Dank letzterem bleibt den Echtzeit-Ethernet-Kanälen der kryptografische Overhead erspart, der in seinem Timing nicht deterministisch ist.
Die augenscheinlichste Aufgabe für einen Fog-Rechner bleibt jedoch die Visualisierung. Sie stellt gehobene Ansprüche an die Hardware, da oftmals eine hohe Auflösung und 3D-Grafik gefordert sind, um die laufenden Prozesse anschaulich darzustellen. Hinzu kommen noch die passenden Schnittstellen für die jeweiligen Displays bzw. Monitore.
IIoT-/ Edge-Device
Je nach Anforderung kann ein IIoT-/ Edge-Device über mehr Intelligenz verfügen als ein nachgeschalteter Server in der Cloud. Dies muss nicht immer mit brachialer Rechenleistung erzielt werden, sondern lässt sich auch durch eine smarte Spezialisierung erreichen. Die Halbleiterindustrie beflügelt mit ihren applikationsspezifischen Bausteinen seit Jahren diese Entwicklung.
Wichtige Faktoren bei der Auswahl der richtigen Rechnerplattform
Über die applikationsspezifischen Funktionen hinaus, spielen bei der Wahl der richtigen Rechnerplattform weitere Faktoren eine bedeutende Rolle. Ein Fog-Rechner der Daten sammelt, selektiert, koordiniert und visualisiert, ist im Dauereinsatz und der Stromverbrauch ein nicht zu unterschätzender Kostenfaktor. Dabei zählt jedes Watt doppelt, zum einen am Verbrauchszähler, zum anderen auch beim Kühlaufwand. Letzterer setzt sich zusammen aus den Material- und Montagekosten für die Entwärmungsmaßnahmen, den Kühlkosten für den Abwärme belasteten Raum, sowie die Wartungskosten für den Tausch von Filtermatten und Lüftern.
Skalierbar – auch über Produktfamilien hinweg
Der Paradigmenwechsel hin zu Edge/Fog/Cloud-Konzepten bedeutet eine Neuausrichtung von Aufgaben und Kompetenzen und damit sich verändernde Leistungsanforderungen an die eingesetzte Elektronik. Mit einer sehr weit skalierenden Prozessorfamilie nähert man sich am besten den Herausforderungen. So kann man die unterschiedlichsten Applikationen mit der passendsten Performance und Schnittstellen versorgen. Ein nicht zu unterschätzender Erfolgsfaktor ist dabei die passende Software-Entwicklungsumgebung, die es den Entwicklern ermöglicht, ohne einarbeitungsintensiven Werkzeugwechsel, schnell und effizient die Lösungen zu erarbeiten – also eine Tool-Chain über die gesamte Plattform hinweg und für mehrere Produktfamilien.
Auch wenn der Fog-Rechner von den Echtzeitanwendungen der einzelnen Edge-Geräte entkoppelt ist, kann eine Echtzeitreaktionsfähigkeit im Rahmen der Gesamtanlage durchaus gefordert sein. Auch hier punktet eine durchgängige Softwareentwicklungskette vom Edge-Device bis hin zum Fog-Rechner. Ebenso muss der Einsatzort bei einem Fog-Rechner in Betracht gezogen werden. So herrscht in vielen Werkshallen ein deutlich raueres Klima, als es die übliche IT verträgt.
„Zu hohe oder zu niedrige Temperaturen in Kombination mit Stäuben und Vibrationen setzen der Elektronik zu.“
Muss man diese gegen die besonders harsche Umwelt kapseln, dann wird die Baugröße schnell ein Thema.
Die wichtigsten Anforderungen für einen Fog-Rechner im Überblick:
- viele Ethernet-Kanäle
- hohe Bildschirmauflösung
- Echtzeitfähigkeit
- geringe Leistungsaufnahme
- skalierbare Architektur
- gleiches Entwicklungswerkzeug
- robust
Praktische Lösung mit Modultechik
TQ-Embedded stellt sich diesen vielfältigen Anforderungen mit dem Embedded-Modul TQMa65xx und dem Mainboard MBa65xx. Sie basieren auf dem Sitara-AM65x-Baustein von Texas Instruments. Er kombiniert vier oder zwei Arm-Cortex-A53-Kerne mit einem dualen Arm-Cortex-R5F-MCU-Subsystem, das Funktionen für die funktionale Sicherheit enthält und drei Gigabit-Subsysteme für die industrielle Kommunikation (PRU_ICSSG) zu einem System-on-Chip.
Der AM65xx wird derzeit vom TÜV SÜD gemäß IEC 61508 zertifiziert. TQ ergänzt diese CPU zu einem lauffähigen System, unter anderem mit Speichern, Security-Elementen und Power-Management. Für die Visualisierungsaufgaben verfügt der AM65 über ein 3D-GPU für eine Auflösung bis zu 1920 × 1200 Pixel. Das TQMa65xx stellt sie per 24-bit-RGB LCD und LVDS zur Verfügung. Zusätzlich stehen mit MIPI-CSI2 und 16-bit-Video-IN zwei Kameraeingänge zur Verfügung für Videokommunikation oder Überwachungsaufgaben.
Mit den bis zu sechs echtzeitfähigen Gigabit-Ethernet-Ports (inkl. TSN) lassen sich auch ausgedehntere industrielle Anwendungen realisieren.
Wer es besonders deterministisch will, kann an jeden dieser Ports nur einen Sender/Empfänger anschließen und ist so befreit von den Netzwerkkollisionen.
Zusätzlich gibt es noch einen normalen Gigabit-Ethernet-Port für die Kommunikation mit der Cloud/IT. Im Falle des MBa65xx sind die Ethernet-Buchsen auch klar räumlich getrennt: Auf der einen Seite die echtzeitfähigen Ports, auf der anderen Seite die Buchse für das normale Ethernet für die Cloud – wer hier in der Not den Stecker ziehen will, findet ihn sofort.
Für das Thema Security ist bereits der Prozessor gut gerüstet.
Kryptografische Beschleunigung und sicheres Booten sind auf dem AM65x zusätzlich zu den vom DMSC (Device Management und Security Controller) verwalteten granularen Firewalls verfügbar. Der Arm Cortex-M3-basierte DMSC fungiert als Master für die Systemsicherheit und schützt Security Assets während der Laufzeit. Ergänzt wird dies auf dem TQMa65xx noch um ein Secure Element als Zusatzchip.
Mit seiner Größe von 77 mm × 55 mm braucht das TQMa65xx nur wenig Platz und eignet sich damit auch für schwierige Einbauverhältnisse. Die Leistungsaufnahme liegt bei typ. 6 W. Der Standardtemperaturbereich geht von -25 bis +85 °C, optional auch von -40 bis +85 °C.
Dank der Cortex-R5F-Kerne können TQMa65xx und MBa65xx auch Echtzeitaufgaben übernehmen und damit den üblichen starren Aufgabenbereich eines Rechners der Leitebene erweitern hin zu flexiblen Fog-Lösungen. Gerade die Anpassungsfähigkeit ist der Schlüssel, um das Konzept der Software Defined Factory zu realisieren: Die einzelnen Geräte lassen sich für die jeweilige Fertigungsaufgabe entsprechend konfigurieren – aus der Cloud heraus oder mit einem geeigneten Fog-Rechner.
Hohe Skalierbarkeit
Betrachtet man die Skalierbarkeit der Am65x-Serie von Texas Instruments, muss auch die Schwesterserien Am64x und Am24x eingeschlossen werden. Sie sind beide für Headless-Applikationen ausgelegt, haben also keine energieintensive GPU und Display-/Monitor-Schnittstellen. Dank ihrer Arm R5F-Cores eignen sie sich sehr gut für Echtzeitanwendungen. Sie teilen sich nicht nur viele Hardware-Komponenten mit der AM65-Serie, auch die Software-Entwicklungsumgebung ist dieselbe. Damit können Entwickler ohne Tool-Bruch über die unterschiedlichen Bausteinfamilien hinweg arbeiten.
Folgende Tabelle zeigt die Skalierbarkeit im praktischen Einsatz als TQ-Module.
TQMa65xx auch für den klassische Einsatz in Feld-, Prozess- und Leitebenen geeignet
Die Module eignen sich nicht nur für den modernen Automatisierungsansatz mit Edge/Fog/Cloud, sie können auch die Aufgaben des klassischen Feld-, Prozess- und Leitebene-Konzepts erledigen. Damit schlagen sie eine Brücke zwischen alten und neuen Lösungsansatz und ermöglichen so eine nahezu fließende Umstellung. Denn eine bestehende und produzierende Fabrikationsanlage umzustellen, erfordert deutlich mehr als ein neues Konzept mit einer neuen Fabrik auf die grüne Wiese zu stellen – hier soll eine Umstellung mit möglichst geringinvasiven Schritten erfolgen.
Anwender der Modultechnik von TQ sind also für bestehende Anlagen und künftige Projekte gut gerüstet. Mit einer Langzeitverfügbarkeit von mehr als 15 Jahren besteht zudem Liefersicherheit auch bei ungewollten Projektverzögerungen und sehr langen Einsatzzeiten. Mit einer ausgeklügelten Obsolescence-Management-Strategie schützt TQ seine Produkte, wie das TQMa65xx und MBa65xx, vor unerwarteten Änderungen und Abkündigungen – was in der aktuellen Marktsituation ein unverzichtbarer Bestandteil der Produktlebenszyklus-Maßnahmen ist.
Damit stehen die Produkte auch bei sehr langen Projektlaufzeiten zur Verfügung.
TQ unterstützt auch mit diversen Obsolescence-Management-Dienstleistungen. Als erfahrenes E²MS Unternehmen und Systemanbieter kann die TQ-Group zahlreiche Dienstleistungen zusätzlich zu den Modulen anbieten und so Unterstützung in vielen Phasen der Produktentwicklung und Fertigung bieten. Zudem ist das firmeneigene Product Compliance Center für die Durchführung von Prüfungen zur elektromagnetischen Verträglichkeit, Produktsicherheit und für Umweltprüfungen zugelassen. (neu)
Autor
Andreas Willig ist Produktmanager bei TQ-Embedded.