Die wachsenden Bevölkerungszahlen in großen urbanen Zentren intensivieren die Herausforderungen, denen sich die Städte in Bezug auf die Verwaltung ihrer Infrastrukturen und beim aktiven Schutz ihrer Bürger gegenübersehen. Kombiniert man dies mit der gestiegenen Mobilität der urbanen Populationen, wobei mehr Menschen größere Distanzen zurücklegen als je zuvor, dann wird schnell klar, dass hier zusätzliche technologische Lösungen gefunden und existierende Konzepte verbessert werden müssen. Die Straßenverkehrsämter und Polizeibehörden nutzen bereits ausgiebig Videosysteme zur Überwachung von Verkehrsstaus, zur schnelleren Präsenz bei Unfällen und zur Erkennung von bedrohlichen Verhaltensweisen in den Stadtzentren. Doch wie ließen sich diese Systeme optimieren, um die Straßen sicherer zu machen?
Gelingen könnte dies mit höher auflösenden Kameras. Bessere Erkennungsmöglichkeiten von Fahrzeug-Kennzeichen würde die Einhaltung von Verkehrsregeln forcieren und im Endeffekt die Zahl der Gesetzesverstöße reduzieren. Insbesondere gilt das für die Missachtung von Ampelsignalen oder Vorfahrtregeln. So ließen sich Staus vermeiden, wenn die Fahrer zu der Einsicht gelangen, dass sie mit aller Wahrscheinlichkeit gerichtlich belangt werden. Verbesserte Kameras zur Kontrolle des Verkehrsflusses und der Geschwindigkeit helfen ebenfalls bei der Reduzierung von Staus und fördern die sichere Fahrweise. Andere Möglichkeiten zur Verbesserung der Informationsqualität durch Kameras umfassen die Erweiterung des Sichtfeldes und bessere Nachtsicht-Performance. Beides ließe sich durch die Kombination mehrerer Bildsensoren erzielen.
Darüber hinaus können hochauflösende und smarte Kameras in Verbindung mit höherer Intelligenz eine bessere Dekodierung der menschlichen Körpersprache erreichen, und damit potenziellen Störungen und Gefahren vorgreifen, um Helfer zu alarmieren.
Um alles dies zu verwirklichen, sind diverse Verbesserungen erforderlich, und zwar sowohl im Front-End, als auch im Back-End des Systems. Allein das einfache Upgrade auf hochauflösende Bildsensoren, etwa solche mit 4K Performance, vergrößert stark die in jedem Frame anfallende Datenmenge, die erfasst, durch Edge-Systeme aufbereitet und zur Analyse und Speicherung an die Cloud übertragen werden müssen (Bild 1).
Massiv parallelisierte Signalverarbeitung
FPGAs (Field Programmable Gate Arrays) sind bekannt für ihre Fähigkeit, eine massiv parallelisierte Signalverarbeitung mehrerer High-Speed Datenströme in Echtzeit auszuführen. Die MPSoC-Bauelemente (Multi-Processor System-on-Chip) Zync Ultrascale+, die in 16-nm-Prozesstechnologie gefertigt werden, ermöglichen hier eine Single-Chip-Lösung mit einem als harte IP implementierten 4K-Video-Encoder. Das eliminiert die typischen Signal-Latenzen, wie sie bei der Chip-zu-Chip-Kommunikation auftreten. Außerdem bietet Xilinx erstmals eine MIPI-IP mit 2,5 Gbit/s pro Lane und schafft damit die schnellste derzeit auf dem Markt verfügbare Peripherie-Schnittstelle.
Xilinx ist außerdem in eine Anzahl von Projekte involviert, die Systeme wie Nachtsicht-Kameras, stereoskopische Kameras zur Verkehrserfassung, Panorama-Kameras und AI-Boxen für den Einsatz in Smart-City-Anwendungen entwickeln. Mehr noch: AI-Technologien werden immer tiefer in das Front- und Back-End von Videoanlagen integriert. Das erhöht die Genauigkeit und Effizienz der gesamten Systeme. Ein typisches Back-end-System für smarte Kameras besteht aus einem smarten Netzwerk-Videorecorder (NVR), Server und Video-Management-Software (VMS). Eine AI-getriebene, intelligente Videoanalyse-Technologie ist die Essenz dieser Produkte, und ein smarter NVR/Server bietet eine Echtzeit-Videoanalyse mit den zugehörigen Metadaten. Außerdem unterstützt der smarte NVR die intelligente Indexierung einzelner Ereignisse, realisiert präzises Recording und spart zugleich Speicherplatz.
Versal ACAP
Um dabei die Performance weiter zu verbessern, umfassen die von Xilinx eingeführten Innovationen unter anderem die adaptierbare Alveo U50 Accelerator Card. Sie integriert 16-nm-UltraScale+-FPGAs und breitbandige Speicherchips (HBM2) mit 460 GB/s für die Cloud-Beschleunigung. Hinzu kommt die Versal ACAP (Adaptive Compute Acceleration Platform) – mit ihrem Multi-Terabit-pro-Sekunde NoC (Network on Chip) Interconnect und fortschrittlicher AI Engine, die Hunderte von eng integrierten VLIW SIMD-Prozessoren enthält. Dies schiebt die Rechenkapazität über die Schwelle von 100 Tera-Operationen pro Sekunde (TOPS @ INT8) hinaus. Damit kann sich die AI-Fähigkeit intelligenter Videosysteme drastisch verbessern und AI-Applikationen an der Edge und in der Cloud signifikant beschleunigen (Bild 2).
Vitis und Vitis AI
Xilinx arbeitet intensiv an der Schaffung innovativer Ökosysteme, wie sie Entwickler heute benötigen, um diese fortschrittlichen Bausteine in ihren Projekten einzusetzen. Dazu gehören Tools wie Vitis zur Applikationsentwicklung und Vitis AI zur Optimierung und den Einsatz von beschleunigter Machine-Learning-Inferenz (Bild 3).
Die AI-Technologie sollte die Stadtverwaltungen zur Entwicklung von smarter Sicherheit, smarten Infrastrukturen und smarten Transportsystemen inspirieren. Dazu gibt es eine Reihe fortschrittlicher Technologien wie die innovativen FPGA-, MPSoC- und ACAP-Bausteine, außerdem die AI-Accelerator-Cards, die alle diese Bausteine integrieren. Sie beschleunigen den Einsatz in Edge- und Cloud-Applikationen mit autonomen AI-Plattformen, die in Echtzeit die enormen Datenmengen verarbeiten können, die von Smart Cities generiert werden.
Die nächsten AI-Generationen werden unseren Smart-City-Begriff sicherlich weiter entwickeln, und aus einem prinzipiell reaktiven Ansatz ein prädiktives Ressourcen-Management entwickeln, das Daten von potenziell Tausenden oder Millionen flächendeckend verteilter Sensoren für den Verkehrsfluss, Parksituation, Luftqualität, Wetterbedingungen, Lichtverhältnisse und vielleicht noch weiterer Größen zusammenführt. Die smarte City von heute ist nur eine embryonische Version dessen, was noch kommen wird.
Trevor Weng
(jj)