Datenübertragungskonzept der Cloud- und Edge-Computing-Technologie.

ML und KI wird meist mit Cloud-Computing in Verbindung gebracht. Die Prinzipien lassen sich jedoch auch auf den Netzwerkrand (Edge) anwenden. (Bild: @zeanab - stock.adobe.com)

Die aktuelle Datenverarbeitung ist zwiegespalten: Cloud-Computing macht aufgrund seiner schieren Größe und Rechenleistung Schlagzeilen, während Edge-Computing die Verarbeitung an die Front verlagert, wo die Elektronik mit der realen Welt interagiert. In der Cloud werden Daten in großen Mengen gespeichert, und die Verarbeitung wird in Warteschlangen eingeordnet und geplant. Im Edge-Bereich erfolgt die Verarbeitung hingegen gezielt und unmittelbar. Dies ermöglicht eine schnelle Reaktion auf lokale Befehle und Feedback von der Anwendung, während der Prozess durch reduzierte Datenströme sicherer ist. Die beiden Bereiche interagieren miteinander, wobei Daten zur Konsolidierung und Analyse Geräte- oder Standort-übergreifend an die Cloud zurückgegeben werden, während globale Befehle und Firmware-Updates in die andere Richtung fließen.

Beide Verarbeitungsumgebungen profitieren von aktuellen ML- und KI-Entwicklungen. In Rechenzentren führen zum Beispiel tausende von Servern mit zehntausenden von Prozessoren, hauptsächlich Grafikprozessoren (GPUs), massiv parallele Berechnungen durch, um LLMs (Large Language Models) wie ChatGPT zu generieren und zu betreiben. In einigen Bereichen sind diese inzwischen leistungsfähiger als Menschen (Bild 1). Im Edge-Bereich reagiert die Verarbeitung auf Feedback-Sensoren/-Befehle gemäß einem Betriebsalgorithmus – aber jetzt können sie mit ML auch effektiv aus dem Feedback lernen. Dies führt dann zu Änderungen am Algorithmus und seinen Berechnungskoeffizienten, um den gesteuerten Prozess genauer, effizienter und sicherer zu machen.

Künstliche Intelligenz (KI) im Vergleich zum Menschen
Bild 1: Künstliche Intelligenz (KI) im Vergleich zum Menschen. (Bild: Kiela et al. (2021) – Dynabench: Rethinking Benchmarking in NLP)

Energieverbrauch beim Cloud- und Edge-Computing im Vergleich

Ein großer Unterschied zwischen Cloud- und Edge-Computing besteht in der Größenordnung des Energieverbrauchs. In beiden Fällen muss der Verbrauch so gering wie möglich sein, aber in einem Rechenzentrum ist er enorm – die Internationale Energieagentur (IEA) schätzt ihn auf 240 bis 340 TWh oder 1 bis 1,3 Prozent des weltweiten Bedarfs. KI und ML werden den Energieverbrauch weiter erhöhen: die IEA schätzt in den kommenden Jahren einen Anstieg von 20 bis 40 Prozent, verglichen mit historischen Zahlen von eher drei Prozent. Im Gegensatz zur bedarfsgesteuerten Datenverarbeitung, wie sie bei Spielen und Videostreaming zum Einsatz kommt, durchläuft KI Lern- und Schlussfolgerungs-/Inferenz-Phasen. Beim Lernen trainieren Datensätze das Modell. ChatGPT hat dafür Berichten zufolge über 1,2 TWh verbraucht, während die Inferenz oder die Betriebsphase des LLM laut de Vries 564 MWh pro Tag betragen könnte.

Am anderen Ende der Skala darf Edge-Computing, das in einem IoT-Knoten oder einem Wearable integriert ist, nicht mehr als Milliwatt (mW) verbrauchen. Selbst Industrie- und EV-Anwendungen wie Motorsteuerung und Batteriemanagement haben ein kleines Budget für Verluste im Steuerkreis und können sich keine großen prozentualen Steigerungen leisten, um KI und ML zu ermöglichen. Daher wurde Tiny Machine Learning (tinyML) als Anwendungsbereich und Technik entwickelt, um geräteintern Analysen von Sensordaten zu implementieren, die für einen sehr niedrigen Stromverbrauch optimiert sind.

Welche Herausforderungen bewältigt tinyML im Batteriemanagement?

ML mittels tinyML-Techniken für eine Anwendung wie das Batteriemanagement zu nutzen, ist eine mehrfache Herausforderung. Ziel ist es, den Ladevorgang so schnell, sicher und effizient wie möglich zu gestalten und das Entladen mit minimaler Belastung zu steuern. Das Management überwacht auch den Zustand der Batterie und gleicht die Zellen aktiv aus (Cell-Balancing), um eine gleichmäßige Alterung und damit maximale Zuverlässigkeit und Lebensdauer zu gewährleisten. Zu den überwachten Parametern zählen die Spannung der einzelnen Zellen, der Strom und die Temperatur. Das Managementsystem muss den Ladezustand (SOC; State of Charge) und den Alterungszustand (SOH; State of Health) vorhersagen. Dabei handelt es sich um dynamische Größen, die in einer komplexen und sich verändernden Beziehung zur Batterienutzung und den gemessenen Parametern stehen.

Trotz der Komplexität der Aufgabe ist eine teure GPU-Implementierung der KI-Verarbeitung nicht erforderlich. Aktuelle Mikrocontroller (MCUs) wie die ARM-Cortex-M0-/M4-Reihen sind für ML im Batteriemanagement geeignet, verbrauchen wenig Strom und werden in intelligente SoCs (System on a Chip) integriert, die speziell für diese Anwendung entwickelt wurden. Ein Beispiel ist der PAC25140 von Qorvo, der bis zu 20 Zellen in einer Reihe mit Li-Ionen-, Li-Polymer- oder LiFePO4-Chemie überwachen, steuern und ausbalancieren kann.

Wie funktioniert die Vorhersage des Ladezustands mit ML?

Batteriemanagement-ICs sind weit verbreitet. Wenn sie aber eine MCU mit ML steuert, lassen sich Informationen und Muster historischer und aktueller Sensordaten verwenden. Damit ergeben sich bessere Vorhersagen über den Ladezustand und die Restkapazität der Batterie, was Sicherheit mit sich bringt. Wie bei anderen ML-Anwendungen gibt es eine Lernphase aus Trainingsdaten, die sich über verschiedene Umgebungsbedingungen und über mehrere Batterien mit ihren Fertigungstoleranzen hinweg protokollieren lässt. Wo keine Felddaten verfügbar sind, kommen synthetische Daten aus der Modellierung zum Einsatz. Wie für KI typisch, wird das Modell dann aktualisiert, wenn sich Felddaten ansammeln, um die Anwendung zu skalieren oder in ähnlichen Systemen zu verwenden. Obwohl das Lernen in der Regel eine Übung ist, bevor die Anwendung in Betrieb genommen wird, kann es dann eine Hintergrundaufgabe sein, bei der Sensordaten zum Einsatz kommen. Diese Sensordaten werden offline entweder lokal oder über die Cloud verarbeitet, um die Leistungsfähigkeit kontinuierlich zu verbessern. Dies richten automatisierte ML-Tools (AutoML) in Verbindung mit den Evaluierungskits von Qorvo für Batteriemanagement-SoCs ein.

Welche ML-Modelle eignen sich für das Batteriemanagement?

Es gibt eine große Auswahl an Modellen für ML und Edge-Anwendungen wie das Batteriemanagement. Ein einfacher Entscheidungsbaum für die Klassifizierung, der nur wenige Ressourcen benötigt (einige kByte RAM), könnte ausreichen. Dieser Ansatz führt zu einer einfachen Klassifizierung einer Datensammlung in „normal“ oder „abnormal“ (Bild 2). Hier dienen zwei Parameter dazu, eine Mehrzellenbatterie während der Entladung zu charakterisieren: SOC für die stärkste Zelle und Spannungsdifferenz zwischen stärkster und schwächster Zelle. Die blauen und weißen Zellen stellen normale Daten dar, und die Klassifizierungsbereiche sind in Blau (Klasse 0 = normal) und Grau (Klasse 1 = abnormal) dargestellt.

Beispiel für einen Entscheidungsbaum
Bild 2: Beispiel für einen Entscheidungsbaum zur Klassifizierung: Klasse 1 (normal), Klasse 0 (abnormal). (Bild: Qorvo)

Um kontinuierliche Werte von Ausgabedaten statt nur Kategorien zu bewerten, kommt ein komplexerer Regressionsentscheidungsbaum zum Einsatz. Andere gängige ML-Modelle unterstützen Vektormaschinen (SVM), Kernel-Approximations-, Nearest-Neighbor-, Naive-Bayes-Klassifikatoren, logistische Regression und Isolation Forest. Die Modellierung neuronaler Netze wird in AutoML-Tools integriert, was die Leistungsfähigkeit erhöht, jedoch auf Kosten der Komplexität. Der gesamte Entwicklungsprozess einer ML-Anwendung wird als ML-Operationen (MLOps) bezeichnet und umfasst Datenerfassung/-verwaltung, Modelltraining, Analyse, Bereitstellung und Überwachung. Der Prozess ist in Bild 3 für eine Batteriemanagement-Anwendung mit dem PAC25140 von Qorvo grafisch dargestellt.

tinyML-Entwicklungsablauf
Bild 3: Beispiel für den tinyML-Entwicklungsablauf. (Bild: Qorvo)

Wie verbessert ML die Erkennung schwacher Batteriezellen?

Teil der Zustandsüberwachung einer Batterie ist es, Zellen mit verminderter Leistungsfähigkeit zu erkennen. Diese zeichnen sich durch eine ungewöhnlich niedrige Zellenspannung unter Last aus. Allerdings beeinflussen auch der tatsächliche Entladestrom, der Ladezustand und die Temperatur die Spannung. Bild 4 zeigt Beispielkurven für starke und schwache Zellen bei unterschiedlichen Temperaturen und Lastströmen.

Entladekurven von Zellen
Bild 4: Entladekurven von Zellen – starke und schwache Zellen. (Bild: Qorvo)

Es tritt hier ein wesentlicher Unterschied zwischen starken und schwachen Zellspannungen auf, wenn die Zellen nahezu entladen sind. Schwache Zellen zu diesem Zeitpunkt zu erkennen, kann zu spät sein, um Überhitzung und Sicherheitsprobleme zu vermeiden. ML zu implementieren ist daher eine Lösung, um nach Mustern in den Daten zu suchen, die früher im Entladezyklus auftreten. Die Wirksamkeit des ML-Ansatzes wurde in einem Experiment von Qorvo hervorgehoben, bei dem die Entwickler eine schwache Zelle in einen 10-Zellen-Batteriepack eingesetzt und mit einem guten Batteriepack verglichen haben. Für beide wurden Trainingsdaten generiert, während sie mit unterschiedlichen konstanten Stromraten und Temperaturen entladen wurden. Zu den überwachten Parameter zählen Serienstrom, Temperatur, Differenz zwischen der stärksten und der schwächsten Zellspannung sowie der Ladezustand der stärksten Zelle.

Die Parameter wurden über 20 Entladezyklen hinweg alle 10 s gleichzeitig erfasst und anhand verschiedener Modelle analysiert (Tabelle 1). Die Ergebnisse wurden mit unabhängigen Testdaten über 20 Entladezyklen hinweg verglichen und zeigten eine hohe Übereinstimmung zwischen den beiden Methoden, die sich durch weitere Trainingsmuster noch verbessern ließen.

Ergebnisse aus Trainings- und Testdaten für verschiedene ML-Modelle
Tabelle 1: Ergebnisse aus Trainings- und Testdaten für verschiedene ML-Modelle. (Bild: Qorvo)

Fazit

Während sich die Berichterstattung über KI derzeit auf groß angelegte, leistungsstarke Anwendungen konzentriert, kann ihr Einsatz im Edge-Bereich mithilfe von MCUs und tinyML für gezielte Anwendungen wie die Batterieüberwachung Teil einer leistungsstarken, aber stromsparenden Lösung sein. SoCs von Qorvo verfügen über die gesamte erforderliche Rechenleistung und können eine Vielzahl von ML-Algorithmen integrieren. Alle erforderlichen Sensor- und Kommunikationsschnittstellen sind enthalten, und die Bausteine werden durch ein umfangreiches Ökosystem von Evaluierungs- und Entwicklungstools unterstützt. (bs)

John Carpenter

Produktentwicklungsmanager bei Qorvo

Sie möchten gerne weiterlesen?