Video- und Bildmaterial zu übertragen ist eine kritische Funktion vieler OP-Instrumente. Üblich ist heute eine Datenübertragung mit Kabelverbindungen. Diese Kabelverbindungen behindern jedoch das OP-Personal bei der Arbeit, außerdem stellen sie einen Kosten- und Zeitfaktor dar durch das umständliche Vorbereiten des OP-Saals und die Reinigung der Kabelverbindungen. Daher haben schon einige Anbieter medizinischer Geräte damit begonnen, die Kabel durch drahtlose Verbindungen zu ersetzen. Beispiele sind ein Enodskop von Stryker mit einer Funkanbindung an einen großen, externen Monitor, drahtlos angebundene Ultraschall-Geräte von Siemens und zahnmedizinische Röntgen-Scanner von Sirona. Diese Beispiele belegen ein großes Spektrum an Funktechniken: WLAN, UWB und RFID. Die Entwickler entscheiden sich jeweils für die Techniken, deren Eigenschaften für die jeweilige Applikation am besten passen. Für Videoübertragung sind Datenrate und Latenz die zentralen Kriterien. Zusätzlich muss die Übertragung störsicher und verschlüsselt stattfinden.

Datenrate und Latenz

Die benötigte Datenrate ist definiert durch die Datenmenge pro Bild und die Wiederholungsrate (Frames per Second). PAL definiert eine Framerate von 25 fps, NTSC dagegen hat 30 fps. HD-Video definiert Frameraten von bis zu 60 fps. Die darzustellende Datenmenge definiert sich als Anzahl der Pixel mal Farbtiefe. Ein HD-Monitor hat 2 MPixel (HD1080). Das gibt bei 16 Bit Farbtiefe pro Farbkanal eine Gesamtmenge von 12,4 MByte pro Frame. Mit einer Datenrate von 25 fps erhält man eine Rate von 311 MByte/s oder 2,49 GBit/s für unkomprimierte HD-Videodaten.

Auf einen Blick

Ärzte und medizinisches Personal haben berechtigte hohe Anforderungen an die Bildqualität bei Videoübertragungen aus dem OP. Wenn möglich, sollte man sie unkomprimiert senden, doch in vielen Fällen reicht dazu die Bandbreite nicht aus. Kompression und Übertragung führen jedoch zu zusätzlichen Latenzen. Der Entwickler muss also gekonnt abwägen und auch mit Sendestörungen rechnen.

Um eine hohe Datenrate mit niedriger Latenz zu gewährleisten, ist eine schnelle Elektronik nötig. Allein durch die hohe Datenrate ergibt sich schon eine Vorauswahl möglicher WLAN-Techniken: WLAN mit 2,4 oder 5 GHz hat nicht genug Bandbreite (EE802.11ac: 600 MBit/s netto). Daher können HD-Videoapplikationen nur UWB oder 60 GHz WLAN benutzen oder eine Kompressionstechnik muss die Datenrate verringern, was durch die Rechenoperation wieder Latenz erzeugt und der Bildqualität schadet.

Kabelgebundene Video-Technologie

Die Analyse verschiedener Videotechnologien zeigt wo Latenz entsteht und welche Bandbreite nötig ist. Es gibt zwei Hauptkategorien, die sich durch ihren Signaltransportmechanismus definieren: Zum einen PAL oder NTSC mit analogen Signalen und zum anderen digitale Techniken, die wie MPEG2 oder MPEG4 eine Kompression verwenden oder unkomprimierte Bilddaten übertragen.

Bild 1: Die zentralen Teile der digitalen Videoverarbeitung. Die Kamera liest analoge Sensoren aus, digitalisiert die Werte und wandelt sie für die Übertragung zum Display in ein digitales Signal um.

Bild 1: Die zentralen Teile der digitalen Videoverarbeitung. Die Kamera liest analoge Sensoren aus, digitalisiert die Werte und wandelt sie für die Übertragung zum Display in ein digitales Signal um.B1 Engineering Solutions

Heute verwenden alle Techniken CMOS- oder CCD-Sensoren, um das Bild zu erzeugen. Für analoges Video konvertiert eine Elektronik diese Information in PAL oder NTSC und sendet sie als analoges Signal zum Monitor. Für digitales Video wird die Information unkomprimiert oder komprimiert in MPEG2- oder MPEG4-Format zum Display transportiert (Bild 1). Alle Technologien teilen sich in drei Hauptschritte:

  • Video-Aufnahme: visuelle Signale aufnehmen und in elektrische Signale kodieren (digital oder analog).
  • Transport: ein aufbereitetes elektrisches Signal auf ein Netzwerk transferieren (Kabel oder Funk).
  • Display: das elektrische Signal sammeln (digital oder analog) und auf einem entsprechenden Gerät (Monitor) darstellen.
Bild 2: Verschiedene Schritte in der Übertragungskette brauchen verschiedene Bearbeitungszeiten. Der kritischste Schritt ist hier die Funkübertragung, der stark von der eingesetzten Technik und der Umgebung abhängt.

Bild 2: Verschiedene Schritte in der Übertragungskette brauchen verschiedene Bearbeitungszeiten. Der kritischste Schritt ist hier die Funkübertragung, der stark von der eingesetzten Technik und der Umgebung abhängt.B1 Engineering Solutions

Alle drei Schritte fügen eine Latenz hinzu und brauchen ausreichend Bandbreite (Bild 2). Für Aufnahme und Anzeige sollte immer genügend Bandbreite bereitstehen. Allerdings bietet die Funkstrecke nur eine begrenzte Bandbreite, je nach eingesetzter Technik. In kabelgebundenen Videoübertragungen erreicht die Latenz schon beinahe die physiologische Wahrnehmungsgrenze von 100 ms. Um unter diesem Limit zu bleiben, müssen die Entwickler alle Komponenten so anpassen, dass keine Konversionsverluste auftreten. Eine Lösung kann aus einer Client-Server-Architektur bestehen, die in das medizinische Umfeld integriert ist.

Einfluss der Funkverbindung

Eine drahtlose Verbindung braucht eine Netzanbindung, die Latenz erzeugt und die Bandbreite limitiert. Die Bandbreite dieser Anbindung kann man durch ausreichend Speicher und schnelle elektronische Busse bereitstellen, während die Latenz auch in IP-Netzen gleich bleibt. Abhängig von der Realisierung beträgt die durch das Netzwerk erzeugte Latenz etwa 10 ms.

Die Funkverbindung selbst hat einen deutlicheren Einfluss auf Latenz und Bandbreite, die wiederum stark von der benutzten Technologie abhängen. Mit der allgemein zugänglichen WLAN-Technologie bei 2,4 und 5 GHz beträgt die Bruttorate zwischen 54 MBit/s (IEEE802.11a) und 1,3 GBit/s (IEEE802.11ac). Die Nettorate ist deutlich geringer und hängt stark von der Umgebung ab. Derzeit sind etwa 600 MBit/s in einem ungestörten Umfeld möglich. Diese Rate genügt für Ultraschall-Applikationen, deren Framerate nur bei etwa 20 fps liegt.

Tabelle 1: Grobe Abschätzung der maximalen Datenrate, die verschiedene medizinische Applikationen benötigen. Die Tabelle beinhaltet nicht den Einfluss des Displaystandards, der wegen Kodierung und Darstellungstechnik noch mehr Bandbreite verlangt.

Tabelle 1: Grobe Abschätzung der maximalen Datenrate, die verschiedene medizinische Applikationen benötigen. Die Tabelle beinhaltet nicht den Einfluss des Displaystandards, der wegen Kodierung und Darstellungstechnik noch mehr Bandbreite verlangt.B1 Engineering Solutions

Dagegen braucht Videoübertragung für Endoskop-Applikationen eine deutlich größere Datenrate bis zu 6 GBit/s. Diese Datenrate für unkomprimierte Bilddaten lässt sich mit der derzeit verfügbaren Technologie nicht realisieren. Daher ist hier Datenkompression unvermeidbar. Mit 60-GHz-WLAN (IEEE802.11ad) steht eine Nettorate von bis zu 4,5 GBit/s zur Verfügung – für Röntgen-Applikationen mit niedriger Datenrate wie CT reicht das um unkomprimiert zu übertragen (Tabelle 1).

Problematische Latenzen

Problematischer sind die Latenzen, die von der Funkverbindung kommen. Diese hängt von verschiedenen Einflussfaktoren ab, beispielsweise Umgebung, benutztes Protokoll (etwa TCP, UDP oder SCTP) oder Datenrate. Die Ursache ist ein inhärentes Problem der Funkübertragung: Antennen teilen sich eine gemeinsame Luftschnittstelle. Diese Schnittstelle kann zufällig durch irgendein Gerät belegt sein und zeigt daher ein nicht-deterministisches Verhalten. Das ist insbesondere im 2,4-GHz-Band problematisch, da hier viele kommerzielle Geräte kommunizieren. Um diesen Einfluss zu minimieren sollte man auf WLAN mit 5 oder 60 GHz ausweichen.

Die Blockade des gemeinsam genutzten Mediums durch viele verschiedene Geräte führt zu Fehlern in der Übertragung, die Wiederholungen nötig machen – was wiederum zu Verzögerungen führt. Der Mensch nimmt Verzögerung im Video sehr empfindlich wahr, reagiert aber viel toleranter gegen Pixelfehler. Eine Optimierung muss daher die Verzögerung minimieren um im Zweifel einzelne Datenverluste in Kauf zu nehmen.

Bild 3: Während im Standard-OSI-Modell jede Schicht separiert ist und Datenaustausch nur mit der benachbarten Schicht möglich ist, erlaubt es Video-Awareness der Applikationsschicht, auf die Information der unteren Linkschicht zu reagieren.

Bild 3: Während im Standard-OSI-Modell jede Schicht separiert ist und Datenaustausch nur mit der benachbarten Schicht möglich ist, erlaubt es Video-Awareness der Applikationsschicht, auf die Information der unteren Linkschicht zu reagieren.B1 Engineering Solutions

Viele Wege führen zum Empfänger

Ein Funksystem kann den Durchsatz erhöhen und die Latenz verringern, indem es räumliche unterschiedliche Ausbreitungswege nutzt. Die Sub-Streams laufen dabei über unterschiedliche Access-Points (AP) mit unterschiedlichen Pfaden. Speziell durch das SCTP-Transportprotokoll (Bild 3) kann man diese Path Diversity optimal nutzen. So bietet SCTP die Möglichkeit, unterschiedliche Pfade schon in der Protokollschicht zu behandeln. Damit kann eine Server-Client-Struktur die verschiedenen Funkverbindungen entsprechend ihrer Qualität priorisieren. Für Videoübertragung lässt sich dadurch die Verzögerung minimieren, bei gleichzeitiger Kontrolle der Qualität.

Generell ist es wichtig Paketwiederholungen zu vermeiden, um die Verzögerungszeiten zu minimieren. Dazu eignet sich als Transportprotokoll SCTP mit Path Diversity oder MPEG-4-SVC-Videocodierung (Scalable Video Coding) mit verschieden priorisierten Sub-Streams.

Bild 4: Um die Datenmenge zu reduzieren, werden die räumlichen Korrelationen fouriertransformiert. Die anschließende Quantisierung passt sich an die gewünschte Qualität an und ignoriert nicht benötigte Informationen.

Bild 4: Um die Datenmenge zu reduzieren, werden die räumlichen Korrelationen fouriertransformiert. Die anschließende Quantisierung passt sich an die gewünschte Qualität an und ignoriert nicht benötigte Informationen.B1 Engineering Solutions

Einfluss der Kompression

Das Kompressionsformat MPEG unterstützt hohe Auflösung mit 1920 × 1080 Pixel und 60 Hz Wiederholungsrate. Die Video-Kompression besteht aus zwei Teilen: Zum einen nutzt das Verfahren die räumlichen Beziehungen der Pixel in einem einzelnen Bild (ähnlich wie die JPEG-Kompression), zum anderen die zeitlichen Beziehungen der Bildfolge. Die räumliche Bildkompression (Bild 4) nutzt die Tatsache, dass das menschliche Gehirn Farben schlechter auflöst als Kontrast. Daher wird Farb- und Schwarz/Weiß-Information getrennt und über unterschiedlich viele benachbarte Pixel abgetastet.

Die zeitliche Kompression des Bewegtbilds profitiert davon, dass sich ein großer Teil zweier aufeinanderfolgenden Bilder gleicht. Es genügt daher, die Unterschiede in den Bildfolgen zu übertragen. Bild 5 zeigt die wesentlichen Kompressionsschritte. Verzögerungen entstehen bei den verschiedenen Kodierungs- und Dekodierungs-Schritten. Sie hängen stark von der Realisierung der Algorithmen ab. Eine Realisierung mit schneller FPGA-Technologie reduziert den Einfluss beträchtlich.

Bild 5: Die zeitliche Kompression überträgt nur die Bildunterschiede (B-Frames), während die Basisinformationen in I- und P-Frames vorliegen. Daher braucht der Dekodierer zuerst die I- und P-Frames, bevor er mit den B-Frames die Bildfolge rekonstruiert.

Bild 5: Die zeitliche Kompression überträgt nur die Bildunterschiede (B-Frames), während die Basisinformationen in I- und P-Frames vorliegen. Daher braucht der Dekodierer zuerst die I- und P-Frames, bevor er mit den B-Frames die Bildfolge rekonstruiert.B1 Engineering Solutions

MPEG definiert drei Frametypen für die zeitliche Kompression: I-Frames enthalten die vollständige Information zur Bildwiedergabe. B-Frames beschreiben den Unterschied zwischen I- und P-Frames. P-Frames beinhalten den Unterschied zum vorhergehenden I- oder P-Frame. B-Frames sind daher die am stärksten komprimierten Daten, die aber die Information von vorhergehenden und nachfolgenden I- oder P-Frames brauchen. Daher hat die Reduktion der Datenmenge ihren Preis: Je stärker die Daten komprimiert werden, desto mehr Latenz wird generiert, da die B-Frames entsprechend rekonstruiert werden müssen. Bild 5 zeigt die daraus resultierende intrinsische Latenz.

Das Ganze im Blick

Um Kabelverbindungen in einem Operationssaal mit drahtlosen Verbindungen zu ersetzen, muss man einige Herausforderungen bewältigen. Weil sich alle Funkverbindungen die Luftschnittstelle teilen, zeigen drahtlose Kommunikationskanäle immer ein stark zufälliges Verhalten. Technische Maßnahmen müssen diese Schwierigkeiten umgehen oder zumindest abmildern. Ein Lösungsansatz ist das Management der Funkverbindung in einer Client-Server-Architektur. Mit einer optimierten Protokollimplementierung auf einem FPGA ist es außerdem möglich, die Latenzzeit der Signalübertragung zu minimieren. WLAN- und IP-Protokolle bieten die nötige Bandbreite für Video und sind etabliert, sicher, kostengünstig und leicht erweiterbar. Die Kontrollfunktion wird anhand verschiedener Protokollerweiterungen wie Scalable Video Coding (SVC) oder dem Stream Control Transmission Protocol (SCTP) diskutiert, die sich entsprechend den jeweiligen Anforderungen der Applikation erweitern  und anpassen lassen.