MathWorks-Software + Altera-FPGA

Die Zusammenarbeit von MathWorks und Altera ermöglicht die nahtlose Integration von Matlab-Entwürfen in FPGA-Hardware. (Bild: MathWorks)

Softwareentwickler MathWorks und Altera, ein Tochterunternehmen von Intel, arbeiten künftig zusammen, um die Entwicklung drahtloser Systeme für Altera-FPGAs zu forcieren. Die Nutzung von KI-basierenden Autoencodern ermöglicht Entwicklern drahtloser Systeme, die Daten von Channel-State-Information (CSI) zu komprimieren und den Fronthaul-Verkehr sowie die Bandbreitenanforderungen deutlich zu reduzieren. Die an drahtlosen 5G- und 6G-Kommunikationssystemen arbeitenden Ingenieure können damit die Sicherheit der Benutzerdaten gewährleisten, Zuverlässigkeit und Leistungsstandards aufrechterhalten und gleichzeitig Kosten senken.

IP-Kerne für Deep-Learning-Prozessoren

MathWorks bietet eine Tool-Suite, die die KI- und Wireless-Entwicklung – insbesondere für Altera FPGAs – optimiert. Die Deep Learning HDL Toolbox ist speziell auf Ingenieure zugeschnitten, die Deep-Learning-Netzwerke auf FPGA-Hardware implementieren möchten. Durch den Einsatz der Funktionen des HDL Coder lässt sich ein leistungsstarker IP-Kern für Deep-Learning-Prozessoren individuell anpassen, erstellen und bereitstellen. Dabei steigert die Unterstützung von Standardnetzen und -schichten die Leistung und Flexibilität drahtloser Anwendungen.

Die FPGA AI Suite zeichnet sich durch die auf Knopfdruck verfügbare IP-Generierung benutzerdefinierter KI-Inferenzbeschleuniger auf Alteras FPGAs aus. Dazu kommt das OpenVino-Toolkit zum Einsatz, das auf vorab trainierten KI-Modellen aus weitverbreiteten Branchen-Frameworks basiert. Darüber hinaus können Entwickler mithilfe der FPGA-Flows der Software Quartus Prime die IP für KI-Inferenzbeschleuniger nahtlos in das FPGA-Design integrieren. Die Kombination der Deep Learning Toolbox und des OpenVino-Toolkits ermöglicht die Optimierung der KI-Inferenz auf Altera-FPGAs.

Sie möchten gerne weiterlesen?