blick-durck-windschutzscheibe-auf-autobahn-nachts

Nur wenn Analysesysteme sowohl Kamera- als auch Radardaten in vollem Umfang nutzen und miteinander kombinieren, können Fahrer den Verkehr auch mal aus den Augen verlieren. (Quelle: Fraunhofer Fokus)

Fahrzeuge müssen noch besser sehen lernen und das Gesehene in jedem Augenblick schnell und korrekt interpretieren können, um vollautonom zu fahren. Um das Verkehrsgeschehen rundherum in nahezu Echtzeit zu erfassen, unterstützt sie vielleicht bald eine Kombination aus Kamera, Radar und Fusionsalgorithmik. Das Fraunhofer-Institut für offene Kommunikationssysteme (Fokus) hat deshalb gemeinsam mit Partnern aus Industrie und Wirtschaft im Projekt Kamerad ein kompaktes Elektroniksystem entwickelt, das die Umfeldbeobachtung von Fahrzeugen erheblich beschleunigt.

Dass sowohl Kameras als auch Radarsensoren das Verkehrsgeschehen rund um ein Fahrzeug kontinuierlich im Blick haben, ist bei den aktuellen Modellen der Fahrzeughersteller längst Standard. Die von diesen Sensorsystemen erfassten Daten sind die Entscheidungsgrundlage für Sicherheits- und Assistenzsysteme wie Einparkhilfe oder Notbremsfunktion. Beide Erfassungstechnologien spielen ihre spezifischen Stärken je nach Assistenzfunktion aus. Der »Radarblick« etwa kann die Entfernung von Objekten zuverlässig bestimmen und ist damit grundlegend für Autonomiefunktionen wie Einparken oder Einhalten des Sicherheitsabstandes. Eine Kamera hingegen liefert hochaufgelöste Bilder mit präzisen Konturen. Daraus kann eine KI-basierende Bildauswertung etwa Verkehrszeichen und Fahrbahnmarkierungen erkennen und so dem Fahrzeug Informationen zum selbstständigen Einhalten von Geschwindigkeitsbegrenzungen oder Fahrspur liefern. »Sollen Fahrzeuge künftig aber auch komplexere Fahrsituationen wie eine Fahrt über eine belebte Innenstadtkreuzung autonom sicher beherrschen, benötigen sie dafür eine umfassende Analyse des Verkehrsgeschehens sowohl von den Radarsensoren als auch von der Kamera. Und das muss nicht nur hochzuverlässig, sondern vor allem auch nahezu in Echtzeit passieren«, erklärt Bernd Schäufele vom Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS.

Hybridblick kombiniert Kamera- und Radardaten

Beim teilautomatisierten Fahren auf Autonomie-Level 2 wie bei derzeitigen Systeme bleibt der Fahrer in der Pflicht, die Aktionen seines Fahrzeugs zu überwachen und bei Bedarf einzugreifen. Die Systeme selbst sind für wenige, klar definierte Situationen zuständig. Der Abstandsassistent etwa muss sich nicht um Verkehrszeichen oder Fahrbahnmarkierungen kümmern, sondern fokussiert voll auf den Abstand zum Vordermann. Der Umfang an zu verarbeitenden Informationen, die Kamera oder Radar an das System liefern, ist begrenzt. Bei Autonomie-Level 3 hingegen übernehmen die Elektroniksysteme die Steuerung des Fahrzeugs zumindest zeitweise komplett. Der Fahrer muss nicht mehr den Verkehr jederzeit im Blick zu haben, das übernimmt nun die Maschine. Dafür ist allerdings eine wesentlich umfassendere Umfelderkennung notwendig, als sie die bisherigen Assistenzsysteme erfordern. »Deshalb müssen die Analysesysteme sowohl die Kamera- als auch die Radardaten in vollem Umfang nutzen und miteinander kombinieren können«, so Schäufele. Die derzeitige Sensorausstattung von Fahrzeugen sei dafür noch nicht ausreichend. Denn das Zusammenführen, Priorisieren und Auswerten und dieser Daten ist technisch weit problematischer als gedacht.

Radarsensoren beispielsweise sind im Bereich der Stoßfänger verbaut, die Kamera mittig hinter der Windschutzscheibe angebracht. Die Signale müssen also erst jeweils eine teils meterlange Kabelstrecke durchlaufen, bevor eine Analysesoftware sie auswerten kann. Die unterschiedlichen Laufzeiten führen dazu, dass die Daten nicht synchron eintreffen. Noch bevor also Auswertung und Fusion der Sensorinformation starten können, muss der Bordrechner die Zeitverzögerungen bestimmen und herausrechnen. »Auch wenn solche zusätzlichen Rechenoperationen nur Bruchteile von Sekunden in Anspruch nehmen, können sie ein ausschlaggebender Faktor sein, ob es zu einem Unfall kommt oder nicht«, betont Schäufele. Lässt sich zum Beispiel die Reaktionszeit um nur 100 ms verkürzen, kommt das Fahrzeug bei einem Innenstadttempo von 50 km/h bereits eineinhalb Meter früher zum Stehen.

Hochintegriertes System liefert Sensordaten schneller

Die Forscher haben dafür eine technische Blaupause entwickelt, die so einfach wie wirkungsvoll ist: Das System greift die Signale direkt an den Sensoren ab und verarbeitet sie sofort vor Ort. Dafür sind Kamera und Radar unmittelbar nebeneinander in einem Gerät positioniert. In dem etwa handygroßen Modul ist zudem die Fusionsalgorithmik für die Low-Level-Zuordnung integriert. Die Low-Level-Fusion bringt den zweidimensionalen Bildstrom der Kamera mit den Tiefeninformationen des Radarsensors zeitlich synchron zusammen. Das Modul sendet das aufbereitete Gesamtsignal danach über eine Datenverbindung für die weiteren Analyseschritte an das Steuerungssystem des Fahrzeugs.

Multisensorsignal erleichtert Umfeldanalyse

Parallel dazu entstanden auch Algorithmen und Verfahren für eine schnellere Analyse der Sensorinformationen. So können nun etwa die Objektdetektion und die Berechnung von Entfernung und Geschwindigkeit des Objekts nahezu zeitgleich erfolgen. Erkennt die KI-gestützte Bildauswertung zum Beispiel einen Fahrradfahrer im Blickfeld der Kamera, nutzt das System die in dem fusionierten Sensorsignal bestehende Querverbindung zu den dazugehörigen Messdaten des Radars und kann dadurch sofort mit angeben, wie weit der Radfahrer entfernt ist und wie schnell er sich wohin bewegt.

 

Einen Prototyp des integrierten Radar-Kamera-Moduls haben die Projektpartner mittig hinter der Windschutzscheibe eines Versuchsfahrzeugs des Daimler Center for Automotive Information Technology (DCAITI) eingebaut. "Für die Auswertung der fusionierten Signale nutzten wir bei den Testfahrten im Berliner Straßenverkehr zudem noch einen im Innenraum des Fahrzeugs untergebrachten Forschungsrechner", erklärt Schäufele. Die Analysesoftware sei aber bereits so konzipiert, dass sie sich direkt in künftige Autonomiesysteme der Fahrzeughersteller integrieren lasse. Ebenso ist es möglich, das kompakte Erfassungsmodul um weitere Sensoren zu erweitern. »Erweiterungen wie diese können die Umfelderkennung nochmals genauer machen. Die Integration der Sensorsysteme in unserem Modul stellt dabei sicher, dass auch dann die Ergebnisse der Datenerfassung und Auswertung ohne unnötigen Zeitverlust bereit stehen«, resümiert Schäufele.

Bernd Schäufele_Fraunhofer Fokus
Eine um 100 ms schnellere Reaktion bringt das Fahrzeuge anderthalb Meter früher zum Stehen: Bernd Schäufele vom Fraunhofer Fokus. (Quelle: Fraunhofer Fokus)

Sie möchten gerne weiterlesen?

Unternehmen

Fraunhofer Institut für Offene Kommunikationssysteme FOKUS

Kaiserin-Augusta-Allee 31
10589 Berlin
Germany