Bild 1: Verschiedene Messtechniken für die Lichtdetektion und Entfernungsmessung.

Bild 1: Verschiedene Messtechniken für die Lichtdetektion und Entfernungsmessung. (Bild: ams Osram)

Mithilfe des ToF-Verfahrens lassen sich Position, Form und Bewegung von Personen und Objekten erkennen. Das grundlegende Prinzip ist einfach: Eine Lichtquelle sendet Lichtstrahlen aus, die von der Umgebung reflektiert werden. Eine entsprechende ToF-Kamera fängt das reflektierte Licht auf, die Entfernung wird anhand der bekannten Lichtgeschwindigkeit und der gemessenen Laufzeit des Lichts errechnet.

Dabei werden zwei Hauptansätze unterschieden: Bei indirektem ToF (iToF) wird die Lichtquelle moduliert und die Phasenverschiebung des reflektierten Lichts erfasst. Da diese Methode relativ unempfindlich gegenüber einer Drift der internen Zeitmessung ist, eignet sie sich vor allem für kürzere Entfernungen.

Bei direktem ToF (dToF) misst der Sensor die Zeit direkt wie oben beschrieben. Eine Methode für dToF ist Lidar. Wie Radar ist das ein Verfahren zur Erfassung und Entfernungsmessung (Detection And Ranging, DAR), Lidar nutzt hierfür Lichtwellen, Radar Funkwellen. Eine gepulste Laserdiode in Lidar-Sensoren sendet einen Lichtpuls, mit dem die Entfernung zwischen dem Sensor und dem Hindernis bestimmt wird. Grundlage hierfür ist eine sehr präzise Zeitbasis. Minimale Änderungen würden sich bei geringen Entfernungen stark auswirken, deshalb eignet sich Lidar vor allem für mittlere oder große Reichweiten von über 100 m.

LiDAR-Verfahren für größeres Sichtfeld und höhere Auflösung

Als Lichtquelle kommt in einem Lidar-Sensor eine Laserdiode zum Einsatz. Da sie einen sehr kleinen, extrem fokussierten Lichtstrahl erzeugt, lässt sich nur die Entfernung eines genauso kleinen Punktes messen. Für die 3D-Erfassung, wie sie z.B. für die Gesichtserkennung, Fahrerassistenzsysteme oder gar das autonome Fahren nötig ist, genügt das nicht. Um den erfassten Bereich, das sogenannte Sichtfeld (Field of View, FoV), zu vergrößern, gibt es verschiedene Ansätze.

Beim Flash-Lidar wird der Lichtstrahl durch Optiken gestreut und so der Abstrahlwinkel vergrößert. Das sorgt jedoch für diffuses und deutlich schwächeres Licht. Dieses Manko beseitigt die Scanning-LiDAR-Technologie. Sie lenkt den Lichtstrahl mithilfe bewegter Mikro-Spiegel über das zu erfassende FoV, das quasi abgescannt wird. Für den Einsatz in Fahrzeugen sind Scanning-LiDAR-Sensoren aber ungeeignet: Mit Abmessungen von ca. 10,5 cm × 6 cm × 10 cm sind sie sehr groß, zudem sind die beweglichen Spiegel anfällig gegenüber Vibrationen, Stößen, Staub und extremen Temperaturen, wie sie sich bei Fahrzeugen nicht vermeiden lassen.

Chip-Technologie und -Gehäuse für Hochleistungs-Infrarot-LED, VCSEL und Kanten emittierende Laser (Edge Emitting Laser, EELs) im Vergleich.
Chip-Technologie und -Gehäuse für Hochleistungs-Infrarot-LED, VCSEL und Kanten emittierende Laser (Edge Emitting Laser, EELs) im Vergleich. (Bild: ams Osram)

Lidar: Was es ist, wie es funktioniert und was es kann

Lidar-Sensoren ermöglichen eine dreidimensionale Erfassung der Umwelt und sind für automatisiertes Fahren (neben Kamera und Radar) erforderlich.
(Bild: Leddartech)

Lidar-Technologie hat in den letzten Jahren an Popularität gewonnen, was unter anderem an den vielen Einsatzmöglichkeiten liegt. In unserer Übersicht werfen wir einen Blick auf die Technologie, ihre Funktionsweise und Anwendungen.

Kleiner und robuster sind Solid-State-Lidar-Sensoren. Sie nutzen Halbleiter anstelle mechanischer Komponenten, um den Lichtstrahl zu lenken. In Lidar mit MEMS-basierten Spiegeln ist das eine Matrix aus Mikrospiegeln, die durch elektrostatische Felder mehrere tausend Mal pro Sekunde zwischen zwei Positionen hin und her wechseln.

Lichtquelle IRED, EEL oder VCSEL

Die Lichtquelle selbst bilden entweder Infrarot-LEDs (IRED), Kanten-emittierende Laser (Edge-Emitting Lasers, EEL) oder Oberflächen-emittierende Laser (Vertical Cavity Surface Emitting Lasers, VCSEL) (Bild 2).

In vielen Anwendungen haben sich IRED und EEL etabliert. Die Vorzüge von IRED bestehen vor allem in ihrem homogenen Licht und ihrer hohen Leistungsdichte. Zudem sind sie relativ kostengünstig und bieten ein einfaches Packaging. EEL punkten dagegen mit höherer Leuchtstärke, hoher Leistung und Effizienz – und damit größeren Reichweiten.

Eine Kombination aus dem einfachen Packaging von IRED und der spektralen Breite und Geschwindigkeit eines EEL bieten VCSEL. Ihre Leistungsdichte bewegt sich derzeit zwischen der einer IRED und der eines EEL. VCSEL benötigen zwar etwas mehr Bauraum als EEL, bringen dafür aber Vorteile für bestimmte Anwendungen mit. Für Flash-Lidar-Systeme qualifizieren sie sich durch ihre Abstrahlcharakteristik, außerdem weisen sie eine gute Wellenlängen-Stabilität bei steigenden Temperaturen auf.

Je nach LiDAR-Architektur eignet sich ein Kanten- (EEL) oder Oberflächen-emittierender (VCSEL) Laser.
Je nach Lidar-Architektur eignet sich ein Kanten- (EEL) oder Oberflächen-emittierender (VCSEL) Laser (je voller der Kreis, desto passender ist der Laser für die jeweilige Anwendung). Die spezifische Anwendbarkeit hängt jedoch stark vom Systemdesign ab. (Bild: ams Osram)

Der Resonator von VCSEL, in dem der Laserstrahl erzeugt wird, besteht aus zwei Bragg-Spiegeln, die parallel zur Ebene des Wafers angeordnet sind. Die Spiegel selbst setzen sich aus mehreren Schichten zusammen, sie erzielen einen Reflexionsgrad von über 99 % und – zusammen mit der Planartechnik der Spiegel - die hervorragende kreisförmige Strahlqualität, eine geringe Divergenz und einen niedrigen Schellwertstrom. Dadurch ist weder eine sekundäre noch eine externe Optik nötig, wie sie bei herkömmlichen Kantenemittern gebraucht werden. Zudem macht diese Bauweise VCSEL unempfindlich gegenüber mechanischen Erschütterungen. Trotzdem erzielen sie eine gute Fokussierbarkeit und bieten eine einfache Faser-Einkopplung und einen geringen Leistungsverbrauch.

Für dToF-Anwendungen, die eine hohe Leistungsdichte für Entfernungsmessungen über 200 m benötigen, sind meist EEL die Laser der Wahl. Eine breite Palette mit unterschiedlichen Gehäusedesigns (TO, Kunststoff, SMT) und Leistungsklassen bietet ams Osram. Diese EEL liefern die höchsten Durchschnittsleistungen auf dem Markt und sind in der Pick&Place- und Reflow-Lötverarbeitung (SMT) einfach zu verwenden.

Für 3D-Sensoranwendungen, die geringere Entfernungen abdecken, hat ams Osram die Infrarot-Lasermodule der Bidos-Serie entwickelt. Die Serie umfasst VCSEL-Bauteile bis 100 W und einer Wellenlänge von 850 bzw. 940 nm.

Das 940 nm VCSEL Power-Array liefert eine optische Ausgangsleistung von 3 W bei typischen Anstiegs- und Abfallzeiten von 0,5 ns. Die integrierte Monitorphotodiode ermöglicht sowohl die Kalibrierung der optischen Ausgangsleistung als auch die automatische Leistungsregelung und die Erkennung von Laser-Sicherheitsproblemen wie Linsenfall oder Hautkontakt, der bei Laseranwendungen stets zu vermeiden ist.

Leistungsstarke Laser für das autonome Fahren

Bei autonomen Fahrzeugen hat Sicherheit oberste Priorität. Hierfür sind Lidar-Systeme mit hoher Reichweite und Schnelligkeit erforderlich – und damit sehr leistungsstarke Laser. Mit zwei neuartigen EEL ermöglicht ams Osram jetzt eine höhere Auflösung für 3D-Systeme und damit bessere Messsignale, wie sie für autonome Fahrzeuge entscheidend sind. Die beiden neuen Laser SPL S4L90A_3 A01 und SPL S1L90A_3 A01 verfügen über eine Leistung von 125 W bei 40 A pro Kanal. Dank ihres geringen thermischen Widerstands von lediglich 30 K/W bei der Ein-Kanal-Variante (SPL S1L90A_3) bzw. 17 K/W bei der Vier-Kanal-Variante (SPL S4L90A_3) lassen sie sich auch bei hohen Strömen einfach entwärmen. Die Vier-Kanal-Version (SPL S4L90A_3) besteht aus einem Chip mit vier Emissionsbereichen, der mit 480 W eine sehr gute optische Leistung liefert. Mit einer Größe von nur 3,35 mm × 2,45 mm × 0,65 mm ist das Bauteil kaum größer als die Ein-Kanal-Variante (2,0 mm × 2,3 mm × 0,65 mm) und deckt dennoch einen breiten Erfassungsbereich ab. In Zusammenarbeit mit Efficient Power Conversion (EPC) bzw. GaN Systems entwickelt ams Osram ein Evaluierungs-Kit für jede Laser-Variante.

ToF-Anwendungen

Auf Basis der Infrarot-VCSEL-Technologien von ams Osram und den patentierten Tiefenverarbeitungsalgorithmen von Chronoptics haben beide Unternehmen ein 3D-ToF-Kamerasystem entwickelt, das eine bessere Leistung bietet als hochmoderne iToF-Kameras.

3D-ToF-Kamerasystem
ams Osram and Chronoptics haben ein 3D-ToF-Kamerasystem entwickelt, das die Leistung moderner iToF-Kameras übertrifft. (Bild: ©2020 Chronoptics Limited. All right reserved. www.chronoptics.com )

Das Chronoptics KEA 3D-ToF-Kamerasystem eignet sich hervorragend für Applikationen für das autonome Fahren, biometrische Identifikationssysteme und zum Entsperren mobiler Geräte. Mit ihren geringen Abmessungen von nur 100 mm x 40 mm x 35 mm ist die Kamera für einen Arbeitsabstand von 0,2 bis 15 Metern ausgelegt und besitzt eine Fremdlicht-Unempfindlichkeit von bis zu 120.000 Lux. Sie ist mit dem Bidos P2433Q VCSEL von ams Osram ausgestattet. Er hat einen kompakten Formfaktor, eine marktführende Ausgangsleistung und Moduleffizienzen von 38 %, bei zukünftigen Modulen sind sogar bis zu 50 % zu erwarten. Sein Gehäusekonzept eignet sich für die Großserienfertigung.

Einen Näherungssensor mit Hochleistungs-VCSEL bietet Vishay: Der VCNL36687S mit einem Erfassungsbereich von bis zu 20 cm integriert zudem eine Photodiode, einen Signalverarbeitungs-IC und einen 12-bit-A/D-Wandler im 3,05 mm x 2 mm x 1 mm LLP- (LeadLess Package) SMD-Gehäuse. Durch seinen relativ geringen Erfassungsbereich ist keine mechanische Barriere nötig, um Detektor und Sender optisch zu isolieren. Damit lässt sich eine Näherungserkennungsfunktion einfacher implementieren und nutzen. Durch die extrem schmale Richtkeule des VCSEL von ±3 ° eignet sich der Sensor für einen schmalen Detektionsbereich und benötigt keine Linsen. Der VCNL36687S ist für Industrie- und Consumer-Anwendungen in Smartphones, Tablets, Virtual-Reality-/Augmented-Reality- (VR/AR) Headsets und anderen batteriebetriebenen Geräten konzipiert, z.B. um das Risiko ungewollter Touch-Eingaben zu minimieren oder für die Erkennung, ob der Benutzer das VR/AR-Headset trägt oder nicht.

 

Autor

Autor, Alain Bruno Kamwa

Alain Bruno Kamwa, Product Sales Manager Opto bei Rutronik

 

Sie möchten gerne weiterlesen?

Unternehmen

Rutronik Elektronische Bauelemente GmbH

Industriestraße 2
75228 Ispringen
Germany

OSRAM Opto Semiconductors GmbH

Leibnizstr. 4
93055 Regensburg
Germany