Bildergalerie
Unterschiedliche Informationen werden mit Computerhilfe fusioniert und ergeben so ein umfassenderes Gesamtbild vom Zustand des Patienten.
Die Netzwerkknoten benötigen mehrere Transaktionen mit dem Zeit-Server, um ihre Abweichung vom Referenztakt zu ermitteln.
Deutlich erkennbar ist die baumförmige Struktur, mit der die Taktverteilung erfolgt.
Diese Grafik veranschaulicht den Ablauf des Synchronisationsprozesses zwischen Master und Slave.

Sensorik und bildgebende Verfahren haben die Medizintechnik revolutioniert und ermöglichen heute eine deutlich schnellere Diagnose und Therapie von Krankheiten. Interessant ist die Vielzahl der Sensoren und Imaging-Systeme, die heute abhängig davon eingesetzt werden, was die Mediziner im Einzelfall im Visier haben. Daraus folgt, dass die Ärzte bereits eine ungefähre Vorstellung davon haben müssen, wonach sie zu suchen haben. Jede Imaging- und Sensor-Technologie ist mit bestimmten Mängeln behaftet. Die Qualität der Informationen lässt sich deshalb durch Datenfusion entscheidend verbessern. Einige im Versuchsstadium befindliche bildgebende Systeme kombinieren zum Beispiel die Positronen-Emissionstomografie (PET) mit der Magnetresonanz-Tomografie (MRT). Damit können sie sowohl Funktionen als auch die Anatomie visualisieren. Hinsichtlich der Hardware bedeutet das in der Regel, dass große Datenmengen aus verschiedenen Quellen mit bestimmten Rechenverfahren fusioniert, dass heißt zusammengeführt und aufbereitet werden müssen. Somit entsteht ein neues Problem – nämlich die schnelle Datenerfassung und präzise Bestimmung des Erfassungszeitpunkts (Time of Acquisition – ToA).

Vor- und Nachteile der Datenfusion aufzeigen

Mit der Sensorfusion ist beabsichtigt, die Unzulänglichkeiten einzelner Sensortechnologien auszumerzen. Dazu werden die besten Eigenschaften verschiedener Sensoren miteinander kombiniert. Üblich sind beispielsweise Kombinationen aus PET- und CT-Scannern. Diese Systeme nutzen zwei verschiedene bildgebende Verfahren – nämlich die Positronen-Emissionstomografie und die auf Röntgenstrahlen basierende Computertomografie – in ein und derselben Röhre. So lassen sich Fehler vermeiden, die sonst unweigerlich aufgetreten wären, wenn separat gemachte Aufnahmen kombiniert werden sollen. Vorteil hierbei: das resultierende Bild liefert Informationen über Funktion und Anatomie.

Der Precision Phyter Transceiver DP83640 im LQFP-48-Gehäuse übernimmt die Synchronisation verteilter Netzwerkknoten zu einem Master-Takt, wobei sich eine hohe Genauigkeit erzielen lässt.

Der Precision Phyter Transceiver DP83640 im LQFP-48-Gehäuse übernimmt die Synchronisation verteilter Netzwerkknoten zu einem Master-Takt, wobei sich eine hohe Genauigkeit erzielen lässt. National Semiconductor

Bildgebende Systeme gehören auf jeden Fall zu den Bereichen, die von der Datenfusion profitieren können. Sie können allerdings die Kosten erhöhen, da sie mit beiden Aufnahmeverfahren ausgestattet sein müssen und zusätzliche Rechenleistung benötigen. Der Vorteil bei dieser Konfiguration ist die Anordnung beider Anlagen in einem System. Hierbei stellt sich die Frage, was geschieht, wenn Sensoren auf verschiedene Systeme verteilt werden. Die zeitliche Koordination wird beim Einholen von Daten aus unterschiedlichen Systemen besonders wichtig, denn für eine korrekte Zusammenführung müssen die Algorithmen genaue Informationen über den Zeitpunkt haben, an dem die Daten erfasst wurden.

Beispielsweise kann es sinnvoll sein, ein System zur Aufzeichnung von Elektrokardiogrammen mit einem bildgebenden Ultraschallsystem, das Aufnahmen von der Bewegung des Herzens liefert, zu kombinieren. Das ermöglicht die so genannte Augmented-Reality, bei der mehrere Datenquellen – meist sogar in Echtzeit – zum jeweils beobachteten Ereignis hinzugefügt werden. Bei der Fusion von EKG und Ultraschall müssen separate Geräte ihre Daten an die für die Datenfusion zuständige Recheneinheit übertragen. Werden zusätzlich Pulsoximetrie oder CO-Oximetrie hinzugefügt, müssen alle Geräte ihre Daten mit präzisen Zeitstempeln versehen, damit eine korrekte Fusion möglich ist. Sind die Daten nicht mit exakten Zeitangaben versehen, wird die Datenfusion fehleranfälliger und schwieriger, so dass sich die Echtzeit-Zusammenführung kompliziert gestaltet.

Sensordaten fusionieren

In der Regel weisen die verwendeten Sensoren spezifische Vorzüge und Mängel auf. Diverse Sensoren liefern qualitativ hochwertige Informationen – aber nur zu jeweils ganz bestimmten Aspekten eines beobachteten Phänomens. Zum Beispiel ist es denkbar, dass ein Sensor zwar eine gute Langzeitdrift aufweist, jedoch nur über eine mäßige Dynamik verfügt. Andere Sensoren wiederum haben eine gute Dynamik, während Drift und Genauigkeit zu wünschen übrig lassen. Kommen beide Sensorarten zum Einsatz, so lassen sich die von ihnen gelieferten Resultate kombinieren beziehungsweise fusionieren, so dass von allen Sensoren die jeweils besten Eigenschaften genutzt werden können. In diesem Fall würde der Entwickler von guter Dynamik, niedriger Langzeitdrift und hoher Genauigkeit profitieren.

Beim Fusionieren der verschiedenen Daten wird häufig eine Methode genutzt, die als Kalman-Filter bezeichnet wird. Dieses Verfahren bewährt sich insbesondere bei hohem Störaufkommen, lässt sich aber auch für die Sensorfusion nutzen. Kalman-Filter errechnen Schätzwerte des voraussichtlichen Resultats. Nachdem die Unsicherheit der Prognose abgewogen ist, wird ein gewichteter Durchschnitt aus diesem Wert und dem tatsächlichen Messwert berechnet. Dabei erhält der Durchschnitt mit der geringsten Unsicherheit das größte Gewicht. Die mit dieser Methode errechneten Werte liegen deutlich näher am tatsächlichen Wert, weil der gewichtete Durchschnitt eine niedrigere Unsicherheit aufweist als der geschätzte oder gemessene Wert.

Die Welt der Medizin

Die in der Medizintechnik gebräuchlichen Sensoren sind für eine bestimmte Aufgabe hervorragend geeignet. Allerdings liefern sie nicht immer genügend Informationen. Im zuvor erwähnten Fall steuert ein Pulsoximeter Informationen über den Sauerstoffgehalt des Blutes bei. Kommen im Blut jedoch bestimmte Gifte, wie CO2 oder Zyanid, vor, reichen die von diesen Geräten gelieferten Informationen nicht aus. Deshalb ist zusätzliches Equipment notwendig, das die Gasaustausch-Rate O2/CO2 misst. Eine Sensorfusion zwischen beiden Geräten ergibt ein vollständigeres Bild vom Sauerstoffgehalt im Blut des Patienten.

Standardisierte Zeitkoordinations-Protokolle betrachten

Die Datenfusion in der Medizintechnik ist nur einer von vielen Bereichen, bei denen der Abtastzeitpunkt exakt ermittelt werden muss. Darüber hinaus sind diverse dezentrale Datenerfassungs- und Kommunikations-Applikationen, darunter der Mobilfunk, ebenfalls auf extrem exakte Zeitinformationen angewiesen. In die lokale Bereitstellung hochpräziser Taktsignale wurde viel Forschungsarbeit investiert. In einer dezentralen Umgebung aber gestaltet sich diese Aufgabe schwieriger.

Es gibt standardisierte Zeitprotokolle, die beispielsweise im Rahmen von Ethernet zur Verfügung stehen, beispielsweise das Network-Time-Protocol (NTP). Diesem fehlt jedoch die nötige Genauigkeit, die für den Aufbau dezentraler Systeme mit hinreichender Präzision erforderlich ist. Angesichts der Mängel von NTP und anderen Timing-Protokollen schlug das IEEE im Jahr 2002 den Standard IEEE1588 vor. Dieser wurde später als Norm IEEE1588-2008 übernommen und trägt mittlerweile die Bezeichnung Precision-Time-Protocol (PTP). Ethernet-Knoten, die diese Norm unterstützen, lassen sich auf weniger als eine Mikrosekunde genau synchronisieren.

Die Funktionsweise des PTP basiert auf dem deterministischen Austausch von Timing-Informationen eines Master-Takts, der mithilfe des Best-Master-Clock -Algorithmus (BMC) ermittelt wird. Sobald der Master-Takt eines Bereichs feststeht, berechnen die einzelnen Knoten ihre Abweichung von diesem Master. Hierzu dient eine Reihe von Transaktionen.

Das Protokoll ist zunächst komplex, wenn eine präzise Synchronisation gewährleistet sein soll. Je näher aber die für das Protokoll zuständige Logik an der Bit-Übertragungsschicht angesiedelt ist, desto exakter lässt sich das Timing kontrollieren. Wird das Protokoll dagegen per Software oberhalb der MAC-Schicht implementiert, ist es unter Umständen nur auf einige hundert Mikrosekunden genau. Das mag für einige Fusions-Applikationen ausreichen, aber bei höheren Auflösungen muss die Distanz zur Hardware erheblich niedriger sein.

Am besten ist es, die 1588-Protokoll-Engine direkt im PHY anzusiedeln. Hierdurch entfällt ein Großteil des stochastischen Jitters, der durch nicht-deterministische Verarbeitungsabläufe oberhalb der Bit-Übertragungs- und der MAC-Schicht verursacht wird. Einige Halbleiterhersteller haben diese Logik direkt in einen Ethernet-PHY-Baustein integriert. Beispiel: National Semis DP83640, der in einem System zusammen mit anderen Bausteinen dieses Typs für eine Synchronisationsgenauigkeit von weniger als 10 ns sorgen kann.

Einblick in das Precision-Time-Protocol geben

Das auch als IEEE1588 bezeichnete Precision-Time-Protocol ist eine Lösung, mit der ein dezentraler Knoten seinen lokalen Takt zu einem präzisen, Cäsium- oder GPS-basierten Master-Takt synchronisieren kann. Das System bedient sich einer Master-Slave-Architektur mit verteilten als Boundary-Clocks bezeichneten Takteinheiten. Die Boundary-Clocks residieren in Netzwerk-Switches, an die mehrere Segmente angeschlossen sind, und können als präzise Brücke zur Übertragung von Synchronisations-Informationen in der gesamten Infrastruktur fungieren. Sämtliche Takte sind zu einem Grand-Master synchronisiert, der als absolute Timing-Referenz für alle Takte im Netzwerk fungiert.

In kleinen oder einfach aufgebauten Netzwerken kommen keine Boundary-Clocks zum Einsatz, sondern alle Knoten synchronisieren sich direkt zum Grand-Master. Wegen der stochastischen Laufzeiten im Netzwerk geht das allerdings zulasten der Timing-Genauigkeit. Im aktualisierten Standard IEEE1588-2008 wurde der Transparent-Clock als Takttyp hinzugefügt, um Modifikationen an den Zeitstempeln zu ermöglichen, wenn PTP-Pakete das Netzwerk-Equipment durchlaufen. Durch die Berücksichtigung dieser Laufzeit lässt sich im gesamten Netzwerk eine höhere Genauigkeit als bisher erzielen.

Weniger ist (viel) mehr

Die zunehmende Verarbeitungsleistung medizinischer Instrumente führt dazu, dass der Umfang der Informationen die vom Patienten eingeholt werden, exponentiell wächst. Werden allerdings dem Anwender – in diesem Fall also dem medizinischen Fachpersonal – zu viele Informationen zur Verfügung gestellt, besteht die Gefahr der Überforderung. Es ist den Benutzern nicht mehr möglich, die eigentlichen Ursachen eines Phänomens einzukreisen oder andere elementare Zustände festzustellen. In diesem Beitrag geht es um das Thema Datenfusion und um die zusätzlichen Anforderungen, die an medizinisches Equipment gestellt werden müssen, wenn aus den zahlreichen Informationsquellen Echtzeit-Analysen hergeleitet werden sollen.

Die Kommunikation von PTP-Informationen erfolgt per Multicast- oder Unicast-Messaging mit einer Port-to-Port-Negotiation unter Verwendung von User-Datagram-Protocol-Paketen (UDP). Ein als Best-Master-Clock (BMC) bezeichneter Algorithmus wählt den Master-Takt nach diversen Kriterien aus, mit deren Hilfe sich die Qualität der Taktquelle quantifizieren lässt. Ausgewertet werden dazu und zwar in dieser Reihenfolge:

  • Priorität 1
  • Taktklasse
  • Genauigkeit
  • Abweichung
  • Priorität 2
  • Eindeutige Kennung zum Auftrennen von Verknüpfungen, die aufgrund der MAC-Adresse vergeben wird.

Die Prioritäts-Attribute sind vom Anwender konfigurierbar und dienen zur Kennzeichnung bevorzugter Takte. Das Klasse-Attribut definiert die Rückverfolgbarkeit zur internationalen Atomzeit. Die Attribute Genauigkeit und Abweichung gelten für den jeweiligen Takttyp.

Die optimale Taktquelle ermitteln

Der BMC-Prozess gliedert sich in zwei Abschnitte, nämlich den Data-Set-Comparison-Algorithmus (DSC) und den State-Decision-Algorithmus (SD). Der DSC-Algorithmus vergleicht die Eigenschaften zweier Takte und ermittelt den optimalen Kandidaten für den Grad-Master. Der SD-Algorithmus wiederum nutzt diese Information, um den bestmöglichen Takt und den empfohlenen Zustand zu ermitteln. Mit diesem Ablauf lässt sich die geeignete Taktquelle für die präzise Synchronisation aller Knoten zur exakten Zeit benennen.

Ist der Master-Takt gefunden, erfordert die grundlegende Methode zur Synchronisation zweier Takte den Transfer von Paketen zwischen zwei Knoten. Davon verfügt einer über den Master-Takt und einer über den Slave-Takt. Der Master sendet an den Slave eine Synchronisationsnachricht mit dem geschätzten Sendezeitpunkt des Pakets. Anschließend transferiert der Master ein Folgepaket mit dem exakten Sendezeitpunkt, der vom Master-Takt beim Senden ermittelt wurde. Der Slave verwendet die Sync-Nachricht und die Folgenachricht zusammen mit seinem lokalen Takt, um sich zum Master zu synchronisieren. Um die Signallaufzeit der Bit-Übertragungsschicht berücksichtigen zu können, wird an den Master eine Delay-Request-Nachricht gesendet. Der Master reagiert darauf mit dem Abschicken einer Delay-Response-Nachricht an den Slave, aus der dieser die Laufzeit der Nachricht ablesen kann. Läuft dieser Synchronisationsprozess auf der Bit-Übertragungsschicht ab, ist die Genauigkeit wesentlich größer, weil die stochastischen Laufzeiten infolge nicht-deterministischer Softwareereignisse in den höheren Protokollschichten wegfallen.

Fazit

Mit der Sensorfusion lassen sich Unzulänglichkeiten einzelner Sensoren kompensieren. Resultat: Qualitativ hochwertige Daten und die Möglichkeit, Medizinern aussagefähige Informationen zur Verfügung zu stellen. Die zeitliche Synchronisation ist von größter Bedeutung für Systeme, die Augmented-Reality auf der Basis dezentraler Architekturen bieten sollen. Ohne eine solche Synchronisation verschlingt das Wiederausrichten der Daten irgendwann so viel Rechenleistung, dass sich Echtzeit-Bilddarstellungen nur noch schwierig realisieren lassen. Scanner, die den Zustand eines Patienten zeigen, werden künftig viele unterschiedliche Eingangsinformationen verarbeiten und den Medizinern zusammengefasste Informationen in die Hand geben, mit denen sie schnellere und treffsicherere Diagnosen stellen können.