Auf dem Mobile World Congress ist die erste Demonstration eines neuronalen Empfängers in einer Blaupause für eine mögliche 6G-Bitübertragungsschicht zu sehen.

Auf dem Mobile World Congress ist die erste Demonstration eines neuronalen Empfängers in einer Blaupause für eine mögliche 6G-Bitübertragungsschicht zu sehen. (Bild: R&S)

Das Konzept eines neuronalen Empfängers sieht vor, dass die Signalverarbeitungsblöcke der Bitübertragungsschicht eines Funkkommunikationssystems durch trainierte maschinelle Lernmodelle ersetzt werden. Wissenschaftler, Forschungsinstitute und Branchenexperten weltweit erwarten, dass ein künftiger 6G-Standard KI/ML für Signalverarbeitungsaufgaben wie Kanalschätzung, Kanalentzerrung und Demapping nutzen wird. Aktuelle Simulationen legen nahe, dass ein solcher neuronaler Empfänger die Verbindungsqualität erhöhen und den Durchsatz im Vergleich zu den bereits leistungsstarken deterministischen Software-Algorithmen, die in 5G NR verwendet werden, weiter steigern kann.

Um solche Machine-Learning-Modelle zu trainieren, werden entsprechende Datensätze benötigt. Oft sind die erforderlichen Datensätze jedoch nur begrenzt oder überhaupt nicht verfügbar. Beim derzeitigen Stand der 6G-Forschung sind Datensätze mit unterschiedlichen Signalkonfigurationen, die mit messtechnischen Hilfsmitteln erzeugt werden, eine praktikable Alternative, um die ML-Modelle für Signalverarbeitungsaufgaben zu trainieren.

In dem KI/ML-basierten Aufbau auf Basis eines neuronalen Empfängers emuliert der Vektorsignalgenerator SMW200A zwei Benutzer, die ein 80 MHz breites Signal in Uplink-Richtung mit einer MIMO-2x2-Signalkonfiguration übertragen. Jeder Benutzer wird unabhängig mit Fading belegt. Um realistische Funkkanalbedingungen zu simulieren wird Rauschen angewendet. Als Empfänger fungiert der Universal-Satellitenempfänger MSR4, der über vier phasenkohärenten Empfangskanäle das Signal erfasst, das mit einer Trägerfrequenz von 3 GHz übertragenen wird. Anschließend stellt er die Daten über eine Echtzeit-Streaming-Schnittstelle einem Server zur Verfügung. Dort wird das Signal mit Hilfe des Server-basierten Testing-Frameworks (SBT) vorverarbeitet, was den Micro-Services der Vector-Signal-Explorer-Software VSE einschließt. Die VSE-Signalanalyse-Software synchronisiert das Signal und führt eine schnelle Fourier-Transformation (FFT) durch. Dieser FFT-transformierte Datensatz dient als Eingabe für den mit NVIDIA Sionna realisierten neuronalen Empfänger.

NVIDIA Sionna ist eine GPU-beschleunigte Open-Source-Bibliothek für Simulationen auf Verbindungsebene. Sie ermöglicht ein schnelles Prototyping komplexer Kommunikationssystemarchitekturen und bietet native Unterstützung für die Integration von maschinellem Lernen in die 6G-Signalverarbeitung an.

Im Rahmen der Demonstration wird der trainierte neuronale Empfänger mit dem klassischen Konzept einer LMMSE-Empfängerarchitektur (Linear Minimum Mean Squared Error) verglichen, bei der traditionelle Signalverarbeitungstechniken auf Grundlage deterministisch entwickelter Software-Algorithmen zum Einsatz kommen. Diese Algorithmen sind in den aktuellen 4G- und 5G-Mobilfunknetzen weit verbreitet.

Andreas Pauly, Executive Vice President für Test and Measurement bei Rohde & Schwarz, erklärt: „Die Signalverarbeitung im Mobilfunk mit Hilfe von maschinellen Lernalgorithmen ist ein hochaktuelles Thema in der Branche, das unter Kollegen oft kontrovers diskutiert wird. Wir freuen uns, mit einem Partner wie NVIDIA auf diesem Experimentierfeld zu arbeiten.“

Sie möchten gerne weiterlesen?