Edge-Computing-Technologie mit verteiltem Netz, das Berechnungen und die Datenspeicherung in der Nähe des Nutzers statt in der Cloud durchführt.

Edge-Computing-Technologie mit verteiltem Netz, das Berechnungen und die Datenspeicherung in der Nähe des Nutzers statt in der Cloud durchführt. (Bild: istockphoto.com/NicoElNino)

Mit dem Einzug der Vernetzung und dem Internet ist ein neues Zeitalter der Automatisierung angebrochen: So spricht man gerne von Industrie 4.0 und IoT. Beides ist weder ein Produkt noch ein Konzept. Es ist vielmehr eine Vision der totalen Vernetzung von intelligenten digitalen Systemen. Durch die neuen Informations- und Kommunikationstechniken sollen sich zukünftig Maschinen gegenseitig steuern. Produktionsprozesse wie Fertigung, Nutzung und Wartung sollen sich selbständig optimieren. Das Ganze soll weitgehend unter Echtzeit erfolgen, um eine selbstorganisierende Produktion beziehungsweise Wertschöpfungskette realisieren zu können.

Um dieses Vorhaben in die Realität umsetzen zu können, müssen – so die gängige Theorie – alle benötigten Daten in der Cloud zur Verfügung stehen und dort verarbeitet werden. Die kostenaufwändige Intelligenz sollte also in der Cloud sein und vor Ort ein kostengünstiges IoT-Gerät seinen Dienst verrichten – dazwischen hat ein leistungsfähiges Netzwerk zu sein.

Jetzt erfolgt allerdings der Netzausbau bei weitem nicht in der erhofften Geschwindigkeit und Flächendeckung. Hinzu kommen in letzter Zeit auch schlechte Erfahrungen, die die Grenzen des Cloud-Ansatzes schmerzlich dokumentieren. Geht beispielsweise ein Anbieter pleite oder wird aufgekauft, dann verschwinden oftmals die Server/Services aus der Cloud und die IoT-Geräte verlieren etliche Funktionen. So sind bereits Smartwatches und Fitness-Tracker zu einfachem Armschmuck degradiert worden. Je höher die Investitionskosten desto größer und schmerzlicher werden dabei die Auswirkungen: Die Insolvenz eines amerikanischen Elektroautomobilherstellers hat erhebliche Folgen für Zulieferer, Besitzer und potenzielle Käufer der Gebrauchtwagen, sogar das vielbeschworene Konzept des Software-defined vehicle (SDV) kommt ins Wanken.

Die Intelligenz vor Ort gewinnt an Wertschätzung

Solange es keine klaren gesetzlichen „Nachfolge“-Regelungen bzw. „Bestandsgarantien“ für Cloud-Services gibt, bleibt bzw. wächst der Zweifel an der Intelligenz in der Cloud über alle Anwendungsbranchen hinweg – und die Intelligenz vor Ort gewinnt an Wertschätzung. Dies zeigt sich auch in den Roadmaps der führenden CPU-Anbieter: Über alle Performance-Klassen hinweg gibt es Verbesserungen, sei es durch mehr Rechenleistung, weniger Stromverbrauch oder neuer Funktionalitäten wie GPU oder KI. Gerade letztere war ursprünglich als Cloud-Anwendung propagiert worden, rückt jetzt aber vor in das IoT-Gerät bzw. das Edge Device.

Wer hier künstliche Intelligenz nutzen will, muss sich eigenes Know-how erarbeiten und kommt aktuell auch nicht um Evaluierungsrunden herum: Zwar geben die Halbleiterhersteller gerne die TOPS-Spitzenwerte (Trillion Operations per Second) für ihre Bausteine an, allerdings ist die Aussagekraft momentan recht gering. Je nach Software-Support und KI-Modell kann ein Baustein mit weniger TOPS mehr KI-Performance abliefern, als ein Baustein vom selben Hersteller mit mehr TOPS. Hier hilft nur zu evaluieren, wenn man nicht mit Kanonen auf Spatzen schießen will. Dabei spielen sich die Software-Entwicklungswerkzeuge in den Vordergrund und die Bedeutung der Hardware-Architektur schwindet.

Trotz KI und mehr lokaler Rechenleistung sind anwendungsspezifische Schnittstellen weiterhin oft systementscheidend. Deshalb integrieren Arm-Chiphersteller für fast jeden Markt die entsprechenden anwendungsspezifischen Schnittstellen wie Grafik, Ethernet, CAN, ADCs, SPI und Digital-IOs bereits in die CPU. So stehen preis- und funktionsoptimierte Derivate auf Basis verschiedener Arm-Rechenkerne für fast alle Branchen zur Verfügung, ob für die Automobilindustrie, den Bereich Networking oder die Steuer- und Regelungstechnik. Dies bedeutet, dass sich aufgrund der Vielseitigkeit der Schnittstellen die meisten Systemanforderungen zur Anbindung von geeigneten Sensoren und Systemen zur Datenerfassung ohne großen Zusatzaufwand umsetzen lassen. Allerdings hilft die Vielfalt der Bausteine nicht, eine schnelle Architektur-Entscheidung zu treffen.

Etwas einfacher ist die Auswahl, wenn es um High-end-Kommunikationsschnittstellen wie 100G-Ethernet geht. Diese enormen Datenmengen brauchen nicht nur die Schnittstellen-Ports, sondern auch die entsprechend dahinterstehende Performance der CPU. Ist dann noch der erweiterte Temperaturbereich von -40 °C bis +85 °C gefordert, punktet beispielsweise die QorIQ-Layerscape-Technologie.

Schnittstellen-Spektrum für x86-Prozessoren

Recht übersichtlich ist hingegen das Schnittstellen-Spektrum für x86-Prozessoren. Hier sind nur die PC-üblichen Ein- und Ausgänge geboten, allerdings häufig mit anwachsender Bandbreite. Speziell PCI Express und USB erreichen mit jeder neuen Generation auch neue Höchstmarken beim Datendurchsatz. Die geringe Schnittstellenvielfalt vereinfacht allerdings die Standardisierung von Embedded-Modulen. Hier kann die x86-Welt auf eine lange und erfolgreiche Geschichte zurückblicken. Mit COM-HPC Mini gibt es ein neues Konzept, das kompakte Abmessungen mir sehr großen potenziellen Bandbreiten verbindet. Dieses Paket adressiert momentan High-End-Applikationen, die das Maximum aus den neuesten Intel-Prozessoren herausholen wollen.

Ein weiterer wichtiger Punkt ist ein ausreichendes Sicherheitskonzept bei der Vernetzung von IoT-Geräten. Wer möchte schon, dass seine Informationen und Daten durch weltweite Hacker, Sicherheitslücken oder unzureichenden Schutz der Öffentlichkeit oder sogar den Marktbegleitern zur Verfügung stehen? Hinzu kommen in letzter Zeit auch immer mehr gesetzliche Auflagen nach mehr Datenschutz und Cybersecurity ins Spiel. Zumindest die westlichen CPU-Hersteller haben darauf reagiert und bieten immer ausgefeiltere Schutzmaßnahmen für ihre Bausteine an. Um keine Sicherheitslücken offen zu lassen, ist eine nahtlose Verzahnung der einzelnen Schutzmaßnahmen von der Hardware über BIOS/Boot-Loader bis hin zum Betriebssystem und der Applikationssoftware notwendig. Nutzer von Modultechnik haben hier einen Vorteil, da die Modulanbieter die Integration bis hin zur Betriebssystemebene bereits vorgeleistet haben. Dies stärkt nicht nur die Sicherheitskette, sondern erspart auch viel Entwicklungszeit und -ressourcen.

Sichere Speicherung und Bereitstellung von Berechtigungsnachweisen

Braucht man für den Einsatz des IoT-Geräts bzw. Edge Devices in der Cloud zusätzliche Funktionalitäten, wie eine sichere Identifizierung, empfiehlt sich der Einsatz einer Root of Trust auf IC-Ebene wie NXPs SE050. Die gebrauchsfertige Lösung ermöglicht u. a. die sichere Speicherung und Bereitstellung von Berechtigungsnachweisen sowie die Durchführung kryptografischer Operationen für sicherheitskritische Kommunikations- und Steuerungsfunktionen und ist damit vielseitig einsetzbar für IoT-Sicherheitsanwendungen wie sichere Verbindungen zu öffentlichen/privaten Clouds, Device-to-Device-Authentifizierung oder Schutz von Sensordaten. Auch hier punkten Modulanbieter, die einen langjährigen Erfahrungsschatz bei der Integration dieser erweiterten Security-Funktionalität mitbringen.

Neben der sicheren und robusten Hardware ist ein wesentlicher Bestandteil einer IoT-Lösung die Software. Im IoT erzeugen Sensorgeräte ein nahezu unermessliches Datenvolumen, das über unzählige dezentrale Netzwerke verteilt wird. Während ein Großteil dieser Daten an zentralisierte Cloud-Services gesendet wird, werden Router und Gateways (Edge Devices) ermächtigt, Daten für lokale Analysen und Abfragen zu speichern und zu verwalten. Sich nur auf Back-End- oder Cloud-Services zu verlassen würde die Menge an Informationen, die erfasst werden kann, einschränken und ernsthafte Sicherheitsrisiken darstellen.

Eine Modul-Architektur in zwei Bauformen: Der Anwender hat die Wahl zwischen softwarekompatiblen Steck- und Lötmodulen, um die für ihre Anwendungen beste Verbindungstechnik nutzen zu können.
Eine Modul-Architektur in zwei Bauformen: Der Anwender hat die Wahl zwischen softwarekompatiblen Steck- und Lötmodulen, um die für ihre Anwendungen beste Verbindungstechnik nutzen zu können. (Bild: TQ-Systems)

Für nicht so leistungsstarke Embedded-Systeme ermöglicht eine SQL-Datenbank, dass Rohdaten in aussagekräftige Informationen komprimiert werden. Durch die Identifizierung von wiederkehrenden Informationen und das Vergleichen von bestimmten Mustern über verschiedene Datenquellen hinweg kann ein Embedded System intelligente Entscheidungen treffen und hilfreiche Vorschläge für das Bereithalten der Informationen geben. Datenbank-Indizes sorgen dafür, dass Daten mit gleichbleibender Leistung und ohne Overhead verarbeitet werden können, unabhängig davon, welches Datenvolumen auf jedem einzelnen Gerät aufgezeichnet wird. Datenbank-Transaktionen schützen die Daten zur gleichen Zeit und verhindern eine Korruption nach unerwartetem Systemausfall.

Anwender sollten möglichst kein kundenspezifisches Datenmanagement-Framework implementieren, da dies meist sehr kostspielig werden kann und zudem oft nicht das gewünschte Ergebnis bringt. Hier ist ein Marktrend zu erkennen: Die Anforderungen werden bevorzugt über eine gut unterstützte und bereits vom Hersteller erprobte Bibliothekslösung realisiert. Wenn Entwickler beispielsweise auf ein TQ-Modul oder eine Plattform mit bereits angepasster ITTIA-SQL-Datenbank-Lösung setzten, können sie sich vor allem auf ihre Applikationsentwicklung konzentrieren und sich auf einen Lösungsbaustein verlassen, um die beste Datenmanagement-Konfiguration für die jeweils geplanten Anwendungen zu erhalten. Das Ganze soll zudem noch sicher vor Angriffen oder Missbrauch geschützt sein.

Vorteile von Embedded-Modulen

An diesem Punkt erkennt man die Vorteile von Embedded-Modulen am besten: Man spart sich viel Integrationsaufwand und dank der Starter-Kits kann die Software-Entwicklung für das IoT-Device bereits beginnen, bevor die endgültige Hardware entwickelt ist. Die Frage nach der besten Architektur für ein IoT-Gerät bzw. Edge Device hat sich also von der CPU- hin zur Modul-Ebene verlagert.

Damit kommen aber auch neue Entscheidungsfaktoren hinzu, die beachtet werden wollen: So stellt sich die Frage, ob ein proprietäres Modul-Design zum Einsatz kommt, um die volle Leistung aus der CPU herauszuholen, oder ein Standard basiertes Modul, das weniger optimiert ist, aber mehr Austauschbarkeit liefert. Hier tendieren die Ratschläge der Modulanbieter – je nach Produktportfolio – zu der einen oder anderen Seite. Analog dazu ist der Entscheidungshorizont bezüglich der CPU-Architektur häufig auch eingeschränkt. Hinzu kommt dann noch das unternehmerische Selbstverständnis, ob man als Modul-Anbieter einfach nur Lieferant sein und seine Linecard unterbringen will oder langfristiger Entwicklungspartner an der Seite der Kunden ist.

Mit mehr als 50 Modulen, sowohl proprietär als auch Standard basiert, steck- oder lötbar und auf Basis von CPUs unterschiedlicher Leistungsklassen von vier Halbleiterherstellern, will die TQ-Group den Kunden individuell die lösungsoptimierte Architektur für ihre Projekte bieten, um schneller, zuverlässiger und wirtschaftlicher zum Erfolg zu kommen. Mit knapp 300 Entwicklern in Hard- und Software und einem ausgewählten Partnernetzwerk versteht sich TQ als Entwicklungspartner für Gesamtlösungen an der Seite der Kunden. (neu)

Autor

Manne Kreuzer, technischer Redakteur bei der TQ-Group.

Sie möchten gerne weiterlesen?