
Beim MAX78000 können Anwender zwischen einem ARM- und einem RISC-V-Kern wählen, um externe Daten in die CNN-Engine zu übertragen. (Bild: Maxim Integrated)
Der MAX78000 erlaubt laut Hersteller die Ausführung von KI-Inferenzen mit weniger als einem Hundertstel der Energie, die konventionelle Softwarelösungen benötigen. Damit erhöht er die Laufzeit batteriebetriebener KI-Applikationen und ermöglicht auch komplexe neue KI-Anwendungen, die zuvor als nicht realisierbar galten.
Diese Steigerung der Leistung des Beschleuniger-Chips soll keine Kompromisse hinsichtlich Latenz und Kosten verursachen: Der Chip führt Inferenzen um den Faktor 100 schneller aus als Softwarelösungen, die auf Low-Power-MCUs laufen, und dies laut Hersteller zu einem Bruchteil der Kosten von FPGA- oder GPU-Lösungen. Dies ist vor allem auf die Integration eines dedizierten neuronalen Netzwerkbeschleunigers mit zwei verschiedenen MCU-Kernen zurückzuführen. Die Lösung ermöglicht es Maschinen, komplexe Muster optisch und akustisch wahrzunehmen – mit lokaler und in Echtzeit ausgeführter KI-Verarbeitung. Damit lassen sich Anwendungen wie industrielle Bildverarbeitung oder Audio- und Gesichtserkennung noch effizienter gestalten.
Wahl zwischen RISC-V- und ARM-Core
Herzstück des MAX78000 ist eine spezialisierte Hardware, die darauf ausgelegt ist, die Leistungsaufnahme und die Latenzzeit von Convolutional Neural Networks (CNN) zu minimieren. Diese Hardware läuft, ohne dass die Mikrocontroller-Kerne stark eingreifen müssent. Energie und Zeit werden nur für die mathematischen Operationen aufgewendet, die ein CNN implementieren. Um externe Daten effizient in die CNN-Engine zu übertragen, können Anwender einen der beiden integrierten Mikrocontroller-Kerne verwenden: den Ultra-Low Power ARM-Cortex-M4-Kern oder den RISC-V-Kern mit einer noch niedrigeren Leistungsaufnahme.
Für die anspruchsvolle KI-Entwicklung stellt Maxim umfangreiche Tools für eine nahtlosere Evaluierung und Entwicklung zur Verfügung. Das MAX78000EVKIT# enthält Audio- und Kameraeingänge sowie sofort einsatzbereite Demos für das Keyword Spotting und die Gesichtserkennung. Eine vollständige Dokumentation hilft Entwicklern dabei, Netzwerke für den MAX78000 mit den für sie gewohnten Tools wie TensorFlow oder PyTorch zu trainieren.
(na)
Weblinks
Sie möchten gerne weiterlesen?
Registrieren Sie sich jetzt kostenlos:
Sie sind bereits registriert?
Hier anmeldenUnternehmen
Aktuellste Beiträge

Highlights vom 26. AEK: Der Weg zum Software-defined Car
Auf dem 26. Automobil-Elektronik Kongress (AEK) trafen sich Ende Juni 2022 wieder die Top-Entscheider im Bereich Automotive-Elektronik in Ludwigsburg. Die Redaktion berichtet über einige Präsentations-Highlights auf dem Weg zum Software-defined Car.Weiterlesen...

ISO-26262-konforme DSCs mit Ökosystem von Microchip
Die digitalen Signal-Controller (DSCs) der Reihe dsPIC33CK1024MP7xx mit 1 MByte Flash von Microchip ermöglichen Anwendungen, bei denen Automotive-Software wie Autosar, OS sowie MCAL-Treiber ausgeführt werden.Weiterlesen...

Software für autonomes Fahren gemeinsam entwickeln
Damit Entwickler von Fahrzeugsoftware entlang der gesamten Wertschöpfungskette effizient zusammenarbeiten können, hat das Forschungsprojekt Panorama standardisierte Austauschformate für Design- und Entwicklungsprozesse geschaffen.Weiterlesen...
Diskutieren Sie mit