Edge-Computing implementiert eine erweiterte Verarbeitung innerhalb des lokalen Sensornetzwerks. Dies minimiert die Datenmenge, die über das Gateway in die Cloud und zurück übertragen werden muss und damit die Kosten reduziert und bei Bedarf Bandbreite für zusätzliche Knoten freisetzt. Werden weniger Daten pro Knoten übertragen, lässt sich auch die Anzahl der Gateways verringern, die zum Sammeln und Übertragen der Daten in die Cloud erforderlich sind.
Künstliche Intelligenz im Endknoten
Ein weiterer Trend, der das Edge-Computing verbessert, ist die künstliche Intelligenz (KI). Frühe KI-Dienste waren hauptsächlich Cloud-basiert. Im Zuge von Neuerungen und effizienteren Algorithmen hat sich die KI sehr schnell auf Endknoten verlagert und ihr Einsatz wird zum Standart. Ein bemerkenswertes Beispiel ist der Sprachassistent Amazon Alexa®. Das Erkennen und Aktivieren beim Hören des Auslöseworts „Alexa“ ist eine bekannte Verwendung von Edge-KI. In diesem Fall erfolgt die Erkennung des Triggerworts lokal in der MCU des Systems. Nach dem erfolgreichen Auslösen wird der Rest des Befehls über ein Wi-Fi-Netzwerk in die Cloud übertragen, wo die anspruchsvolle KI-Verarbeitung durchgeführt wird. Auf diese Weise wird die Aktivierungslatenz minimiert, um die bestmögliche Benutzererfahrung zu gewährleisten.
Vorteile der Edge-KI-Verarbeitung
Neben der Berücksichtigung der Bandbreiten- und Kostenprobleme bietet die Edge-KI-Verarbeitung auch zusätzliche Vorteile für die Anwendung. So können bei der vorausschauenden Wartung z.B. kleine Sensoren an Elektromotoren angebracht werden, um Temperatur und Vibration zu messen. Mithilfe eines trainierten KI-Modells lässt sich dann sehr effektiv vorhersagen, wann der Motor ein defektes Lager oder einen Überlastungszustand hat oder haben wird. Diese Frühwarnung zu erhalten ist wichtig, um den Motor zu warten, bevor er komplett ausfällt. Vorausschauende Wartung verkürzt somit die Ausfallzeit erheblich, da die Geräte/Anlagen proaktiv gewartet werden, bevor ein Komplettausfall erfolgt.
Bei weiterem Hinzufügen von Sensoren können Gateways auch mit den Telemetriedaten aus dem lokalen Sensornetzwerk überfordert sein. Dann gibt es zwei Möglichkeiten, diese Daten- und Netzwerküberlastung zu verringern: weitere Gateways hinzufügen oder mehr Edge-Verarbeitung an die Endknoten verlagern.
Die Idee, mehr Verarbeitung auf die Endknoten, typischerweise Sensoren, zu übertragen, ist im Gange und wird immer populärer. Die Endknoten werden normalerweise mit Energie im mW-Bereich betrieben und befinden sich die meiste Zeit im Sleep-Zustand mit einer µW-Leistungsaufnahme. Sie haben auch nur eine begrenzte Verarbeitungskapazität, was auf die niedrigen Energie- und Kostenanforderungen für Endknoten zurückzuführen ist. Anders gesagt: sie sind sehr ressourcenbeschränkt.
Ein typischer Sensorknoten
Ein typischer Sensorknoten lässt sich z.B. von einem einfachen Mikrocontroller mit 8-Bit-Prozessor, 64 kB Flash und 8 kB RAM mit Taktraten um 20 MHz steuern. Alternativ kann der Mikrocontroller auch so komplex sein wie ein Arm-Cortex-M4F-Prozessor mit 2 MB Flash und 512 kB RAM mit Taktraten um 200 MHz.
Das Hinzufügen von Edge-Verarbeitung zu ressourcenbeschränkten Endknoten ist schwierig und erfordert Innovation und Optimierung auf Hardware- und Softwareebene. Da sich die Endknoten ohnehin im System befinden, ist es wirtschaftlich, so viel Edge-Verarbeitungsleistung wie möglich hinzuzufügen.
Insgesamt werden die Endknoten immer intelligenter; sie müssen aber auch weiterhin ihrem geringen Ressourcenbedarf hinsichtlich Kosten und Stromverbrauch entsprechen. Die Edge-Verarbeitung wird wie die Cloud-Verarbeitung weiterhin vorherrschend sein. Durch die Möglichkeit, Funktionen dem jeweiligen Standort zuzuweisen, lassen sich Systeme für jede Anwendung optimieren und sorgen so für beste Leistungsfähigkeit und niedrigste Kosten. Die effiziente Verteilung von Hardware- und Softwareressourcen ist entscheidend für den Ausgleich konkurrierender Leistungs- und Kostenziele. Die richtige Balance minimiert den Datentransfer in die Cloud, minimiert die Anzahl an Gateways und erweitert die Sensor- oder Endknoten um so viele Funktionen wie möglich.
Beispiel Low-Power-Kamera
Die von Onsemi entwickelte RSL10 Smart Shot Camera löst diese Anforderungen mit einem Design, das sofort einsetzbar ist oder sich einfach zu einer Anwendung hinzufügen lässt. Die ereignisgesteuerte, KI-fähige Bildverarbeitungsplattform bietet Entwicklern einfachen Zugang auf die Leistungsfähigkeit KI-fähiger Objekterkennung/-erfassung in einem Format mit geringer Stromaufnahme.
Die angewandte Technik besteht darin, mit dem kleinen, aber leistungsstarken CMOS-Bildsensor ARX3A0 ein Einzelbild (Frame) aufzunehmen, das zur Verarbeitung an einen Cloud-Service hochgeladen wird. Vor dem Senden wird das Bild von einem Bildsensorprozessor (ISP; Image Sensor Processor) von Sunplus Innovation Technology verarbeitet und komprimiert. Nach der JPEG-Komprimierung lassen sich die Bilddaten viel schneller über ein Bluetooth-Low-Energy-Funknetz (BLE) auf ein Gateway oder ein Smartphone übertragen. Der Bildprozessor ist ein gutes Beispiel für Edge-Verarbeitung an einem Endknoten. Das Bild wird lokal komprimiert und weniger Daten gelangen per Funk in die Cloud.
Der Bildsensor wurde speziell für einen Betrieb mit sehr geringem Stromverbrauch entwickelt. Die Leistungsaufnahme im Betrieb beträgt nur 3,2 mW. Der Sensor lässt sich auch so konfigurieren, dass er intern eine Vorverarbeitung durchführt, um den Stromverbrauch weiter zu reduzieren, z.B. durch Einstellen des Bereichs, der von Interesse ist. Damit kann der Sensor im Energiesparmodus verbleiben, bis ein Objekt/eine Bewegung in dem Bereich von Interesse erfasst wird. Die weitere Verarbeitung und Kommunikation über BLE erfolgt über das vollständig zertifizierte RSL10-SIP.
KI und Objekterkennung
Auf dem Board finden sich mehrere Sensoren, um Aktivitäten auszulösen: ein Bewegungssensor, ein Beschleunigungsmesser und ein Umgebungssensor. Nach dem Auslösen kann das Board ein Bild über BLE an ein Smartphone senden, von wo die Begleit-App es auf einen Cloud-Dienst hochladen kann, z.B. Amazon Rekognition. Die Cloud-Dienste wenden Deep-Learning-Bildverarbeitungsalgorithmen (Machine Vision) an. Im Fall der RSL10 Smart Shot Camera ist der Cloud-Dienst für die Objekterkennung eingerichtet. Sobald ein Bild verarbeitet wurde, wird die Smartphone-App mit den vom Algorithmus erkannten Werten und der Erfolgswahrscheinlichkeit aktualisiert. Diese Art Cloud-basierter Dienste ist sehr genau, da sie buchstäblich über Milliarden von Bildern verfügen, um den Bildverarbeitungsalgorithmus zu trainieren.
Fazit
Das Internet der Dinge verändert sich ständig und wird nach Bedarf optimiert, um eine massive und kostengünstige Skalierung zu ermöglichen. Neue Datenanbindungstechnik wird entwickelt, um die Herausforderungen in Bezug auf Stromverbrauch, Bandbreite und Kapazität zu bedienen. Künstliche Intelligenz entwickelt sich weiter und wird immer leistungsfähiger und effizienter, sodass sie in die Randbereiche und sogar an die Endknoten (Edge) vordringen kann. Das IoT wächst und passt sich an, um das kontinuierliche Wachstum widerzuspiegeln und für zukünftiges Wachstum gerüstet zu sein.
Die RSL10 Smart Shot Camera von Onsemi ist ein gutes Beispiel, wie diese Herausforderungen effizient angegangen werden können, um ein intelligentes und kostengünstiges System einzusetzen, das eine minimale Bandbreite benötigt. (na)
Autor
Dan Clememt ist Senior Principal Solutions Marketing Engineer bei Onsemi.
Sie möchten gerne weiterlesen?
Unternehmen
ON SEMICONDUCTOR Limited
The Nova building, Herschel street
0 Slough, Berkshire SL1 1XS
United Kingdom