Zur Sicherheits-Überwachung, bei Qualitätskontrollen oder zur Prozessüberwachung – überall wo es nötig ist, ein Bild von einem Geschehen aufzunehmen, kommen Kameras zum Einsatz. Das Herzstück einer Kamera ist der Bildsensor: er erfasst die Daten und wandelt sie in Signale um, die zu einem Bild zusammengesetzt werden.
Wie funktioniert ein Bildsensor?
Ein Bildsensor besteht in der Regel aus Halbleitermaterial, das eine Photodiode bildet. Fällt ein Photon auf die Licht-aktive Fläche, gibt es seine Energie an ein Elektron im Halbleitermaterial ab, sodass dieses aus dem Valenzband herausgelöst wird. Ist die Energie dabei mindestens so groß wie die Bandlücke, geht das Elektron ins Leitungsband über und es entsteht ein Strom, der proportional zur Intensität des Lichts ist. Ein Bildsensor ist also nur für Licht in einem bestimmten Bereich empfindlich, der vom Halbleitermaterial abhängt. Bei Kameras ist vor allem der sichtbare und der Infrarot-Bereich relevant.
Aufbau eines CMOS-Sensors
Wegen seiner flexiblen und schnellen Signal-Auslesung, guter Bildqualität, hoher Energieeffizienz und billiger Herstellung kommen in der Industrie aktuell standartmäßig CMOS-Bildsensoren zum Einsatz.
Ein CMOS-Sensor besteht aus einer Matrix aus Photodioden, auch Pixel genannt. Die hier erzeugte Spannung wird in digitale Werte umgewandelt, die Pixel für Pixel ausgelesen werden. Um ein Farbbild zu erzeugen, kommen Farbfilter zu Einsatz. Die Erweiterung des Spektralbereichs und eine ereignisbasierte Datenerfassung ermöglichen neue Anwendungen in Industrie und Automotive.
Ein solcher Sensor besteht aus einer Matrix von Pixeln (Bild 1). Ein Pixel, oder auch APS (aktiver Pixelsensor), verfügt über eine Photodiode. Die hier erzeugte Spannung speichert ein parallelgeschalteter Kondensator, bis sie zeilenweise Pixel für Pixel oder spaltenweise, also alle Pixel einer Spalte gleichzeitig, ausgelesen wird.
Die lichtempfindlichen Schichten sind in der Regel auf der Rückseite des Sensors, nahe an der Lichtquelle (rückwärtige Belichtung). Sie werden so nicht durch die Metallisierungsschichten auf der Vorderseite des Sensors blockiert, und möglichst viel Licht trifft auf sie. Elektronischen Komponenten wie Verstärker und Ausleseschaltungen befinden sich auf der vorderen Seite des Sensors.
So funktioniert die Auslesung beim CMOS-Sensor
Die Ausleseschaltung enthält einen Multiplexer, der für jeden Pixel eine Verbindung zur entsprechenden Photodiode herstellt. Der Multiplexer ermöglicht es, nacheinander die Ladungen der einzelnen Pixel auszulesen. Jede Pixelstelle ist mit einem Auslesetransistor verbunden, der als Schalter fungiert, um die Ladung der Photodiode auf den Ausgang des Pixels zu übertragen. Ist der Auslesetransistor aktiviert, fließt die Ladung von der Photodiode durch den Transistor und beeinflusst die Ausgangsspannung. Vom Auslesetransistor gelangt die Ladung in einen Source-Follower-Verstärker, der das Signal verstärkt und sicherstellt, dass die Ausgangsspannung des Pixels einen ausreichenden Pegel hat, um weiterverarbeitet zu werden. Die verstärkten Spannungssignale der einzelnen Pixel werden in einem Ausgangsregister gespeichert. Dieser Ausgangsregister ermöglicht es, die Signale nacheinander auszulesen und in einen seriellen Datenstrom umzuwandeln. Ein Analog/Digital-Wandler wandelt die ausgelesenen verstärkten analogen Ladungssignale in digitale Werte um, ein digitaler Bildprozessor verarbeitet sie weiter. Hier kommen oft Bildalgorithmen wie Rauschunterdrückung, Schärfung oder Farbkorrektur zum Einsatz. Die digitalen Werte der einzelnen Pixel werden zusammengeführt und erzeugen ein vollständiges digitales Bild.
Wichtige Kenngrößen: Absorptionskoeffizient und spektrale Empfindlichkeit
Nicht durch jedes Photon der passenden Energie entsteht ein freies Elektron, da ein Teil des Lichts reflektiert, gestreut oder absorbiert wird. Die Anzahl der Photonen, die nötig sind, um eine bestimmte Zahl von Elektronen zu erzeugen, hängt vom Absorptionskoeffizienten des Halbleitermaterials ab. Außerdem tragen nur Elektronen zum Strom bei, die dort entstehen, wo sie das elektrische Feld der Photodiode erfasst bevor sie rekombinieren. Die Quanteneffizienz gibt an wie viele der eintreffenden Photonen zum Strom beitragen. Sie wird meist in Prozent angegeben und variiert in der Regel über den spektralen Bereich des Lichts. Die spektrale Empfindlichkeit beschreibt, wie empfindlich der Sensor auf unterschiedliche Wellenlängen des Lichts reagiert. Oft wird sie als Kurve dargestellt, die den Ausgangsstrom in Abhängigkeit von der Lichtwellenlänge zeigt.
Die gesamte Empfindlichkeit eines CMOS-Sensors wird hauptsächlich von der Quanteneffizienz und dem Rauschen bestimmt, denn um nutzbare Informationen zu erzeugen, muss das Eingangssignal größer sein als das Grundrauschen des Sensors. Das Signal-zu-Rausch-Verhältnis ist hier das Verhältnis vom maximalen Ausgangssignal zum gesamten Rauschen des Systems. Je größer dieses Verhältnis ist, desto besser ist die Fähigkeit des Sensors, auch schwaches Licht in ein elektrisches Signal umzuwandeln.
Dieses Grundrauschen kann verschiedene Ursachen haben, die auf das Sensor-Design oder die elektronischen Komponenten der Kamera zurückgehen. Zum Beispiel erzeugen Elektronen, die nicht durch das einfallende Licht, sondern durch thermische Energie angeregt werden, ein Dunkelstromrauschen; Unterschiede in den ADC-Schaltungen der einzelnen Pixel führen zu Bildrauschen. Außerdem können bei Fertigungsprozessen Defekte im Sensor entstehen. Unsicherheiten bei der Umwandlung von Ladungen in Spannung in der Photodiode bewirken kTC-Rauschen und Quantisierungsrauschen entsteht bei der Umwandlung von analogem in digitales Signal durch den ADC. Das meiste Bildrauschen lässt sich mit entsprechenden Algorithmen korrigieren.
Auch der physikalische Aufbau des Sensors spielt für die Empfindlichkeit eine Rolle. Da sich bei CMOS-Sensoren in jedem Pixel einige Transistoren befinden, ist nicht die gesamte Sensoroberfläche lichtempfindlich. Deshalb sind Mikrolinsen auf den Pixeln aufgebracht, die Photonen, die außerhalb des empfindlichen Bereichs auftreffen, in die Pixel lenken können.
Neben der Empfindlichkeit ist der Dynamikbereich beim CMOS-Sensor eine wichtige Kenngröße. Dieser wird üblicherweise in dB angegeben und beschreibt das Verhältnis zwischen dem größten und dem kleinsten darstellbaren Helligkeitswert. Ein hoher Dynamikbereich bedeutet, dass der Sensor sowohl in den Schattenbereichen viele Details einfangen kann, ohne dass sie im Rauschen untergehen, als auch in den hellen Bereichen keine überbelichteten Stellen entstehen.
Farbbestimmung durch Farbfilter und Bayer-Matrix
Ein klassischer CMOS-Sensor kann nur Heiligkeiten bestimmen. Um den digitalen Signalen bestimmte Farben zuzuordnen, kommen Farbfilter zum Einsatz. Über jeder Photodiode befindet sich ein spezifischer Farbfilter, der nur Licht durchlässt, das einer der Primärfarben Rot, Grün oder Blau entspricht. Die umliegenden Pixel erfassen die Intensität der anderen Farben. Bei einer Bayer-Matrix sind die verschiedenen Farbfilter nebeneinander in einem bestimmten Muster angeordnet (Bild 2).
Dabei adaptiert die Bayer-Matrix die Augenempfindlichkeitskurve, die im Grün-Bereich eine wesentlich höhere Empfindlichkeit aufweist als bei anderen Farben. Fällt Licht auf den Bayer-Filter, dann setzt jeder Pixel eine der drei Primärfarben in eine Spannung um. Die digitalen Werte der drei Farbkanäle kombiniert ergeben ein vollständiges Farbbild.
Erweiterung des Spektral-Bereichs in den kurzwelligen Infrarotbereich
CMOS-Detektoren für sichtbares Licht sind in der Industrie weit verbreitet. Allerdings gibt es zahlreiche Anwendungen, die von Bildsensoren profitieren, die Licht im kurzwelligen Infrarotbereich (SWIR, 1000nm - 2000 nm) erfassen können. So ist es möglich, mit SWIR-Sensoren Unterschiede von Objekten oder Materialen abzubilden, die sich im sichtbaren Bereich nicht unterscheiden lassen, denn Objekte mit ähnlichen sichtbaren Reflexionsspektren können im SWIR-Spektralbereich deutlich unterschiedliche Reflexionseigenschaften haben. Ein Anwendungsbereich ist z. B. die industrielle Inspektion. Auch für das autonome Fahrzeug bringen SWIR-Sensoren Vorteile, denn SWIR-Licht dringt besser durch dichte Partikel wie Nebel und Rauch, da es weniger gestreut wird. Außerdem sind SWIR-Sensoren weniger empfindlich gegenüber Fremdlichtquellen wie Straßenlaternen, die in der Dunkelheit stören könnten. SWIR-Licht kann auch einige Materialien durchdringen, die für sichtbares Licht undurchsichtig sind und so z. B. anzeigen, was sich hinter Hindernissen befindet.
Welche Sensor-Technologien gibt es für den SWIR-Bereich?
Aktuell sind für den SWIR-Bereich hauptsächlich InGaAs-Sensoren erhältlich. Sony verwendet z. B. eine SWIR-Technologie, bei der eine einzige Kamera sichtbares und SWIR-Licht erfasst. Hier ist über InGaAs-Schicht liegt eine dünne InP-Schicht, die sichtbares Licht absorbiert. So ist auch im sichtbaren Bereich eine hohe Quanteneffizienz möglich. Dieses Design deckt einen Wellenlängenbereich von 0,4 μm bis 1,7 μm ab (Bild 3).
Allerdings sind InGaAs-Sensoren sehr teuer. Um diese Technik einer breiten Palette von Anwendungen zugänglich zu machen, sind preiswerte Alternativen nötig. Solche sind z. B. hybride Bildsensoren, bei denen eine zusätzliche lichtabsorbierende Dünnschicht aus organischen Halbleitern oder Quantenpunkten auf einem CMOS-Ausleseschaltkreis aufgebracht ist, um so den Erfassungsbereich für SWIR-Licht zu erweitern. Bei einer anderen Technik werden die Eigenschaften von Silizium so verändert, dass der Absorptionsbereich über die Grenzen seiner Bandlücke hinaus erweitert ist.
Hyperspektrale Spektroradiometrie erfasst Hunderte oder Tausende spektraler Bänder
Eine Sensor-Technik, die weit mehr als den sichtbaren Lichtbereich erfasst, ist die hyperspektrale Spektroradiometrie. Im Gegensatz zu herkömmlichen CMOS-Sensoren, die nur drei Farbbänder erfassen, ermöglicht hyperspektrale Bildgebung die Erfassung von Hunderten oder Tausenden spektraler Bänder und geben so Informationen über das Lichtspektrum für jedes Pixel im Bild. Abhängig vom Sensor zeichnen entsprechende Kameras Wellenlängen von 350 nm bis 2500 nm mit spektralen Auflösungen von 3 nm bis 10 nm auf. Sie können z. B. in der Landwirtschaft Pflanzenzustand und Wassermangel überwachen. Außerdem erkennen sie Umweltverschmutzung und Veränderungen in Ökosystemen. In der Medizin helfen sie Gewebe zu untersuchen, krankhafte Veränderungen zu erkennen oder Gewebeproben zu analysieren.
Allerdings ist diese Technik bisher den potenziellen Anwendern wenig vertraut. Daher ist eine kostengünstige, nahtlose Integration in die bestehende Infrastruktur und eine leicht zu bedienende, zugängliche Software entscheidende Voraussetzungen für die Kommerzialisierung.
Event-basierte Bildgebung vermeidet Unter- und Überabtastung
Eine weitere vielversprechende Technik ist die ereignisbasierte Bildverarbeitung. Herkömmliche Sensoren tasten das Signal mit einer festen Rate ab, wobei die Daten in regelmäßigen Abständen ausgelesen werden. Dies kann dazu führen, dass einige Segmente zu stark abgetastet werden (wo sich nichts ändert), andere Regionen hingegen zu wenig (zwischen den Auslesungen treten Änderungen auf). Bei ereignisgesteuerten Sensoren erfolgt die Abtastung immer dann, wenn sich das Signal um einen vordefinierten Schwellenwert ändert. Ein solcher Sensor erkennt asynchron Änderungen in der Leuchtdichte jedes Pixels und gibt Daten einschließlich Koordinaten und Zeit nur für die Pixel aus, bei denen eine Änderung festgestellt wurde (Bild 4). Die Auslesung muss einen Zeitstempel enthalten. Auf diese Weise werden Unter- und Überabtastung vermieden.
Anwendungsbereiche der Event-basierten Bildgebung
Die vielversprechendsten Anwendungsbereiche sind autonomes Fahren, die Erfassung von Anwesenheit in Gebäuden und der Einsatz in unbemannten Luftfahrzeugen wie Drohnen. Allerdings ist es sehr anspruchsvoll, eine entsprechende Datenanalysesoftware zu entwickeln und die gesetzlichen Voraussetzungen zu erfüllen. Hier sind hohe Investitionen, vor allem in die Software, erforderlich. Weitere Einsatzbereiche sind AR/VR-Brillen. Das abzubildende System ist hier viel genauer definiert, was die automatische Datenanalyse wesentlich erleichtert. Außerdem ist es möglich, relativ hochpreisige Geräte in kleinerer Stückzahl zu verkaufen.
Die Autorin: Sabine Synkule
Durch ihr Elternhaus schon von Kindesbeinen an naturwissenschaftlich geprägt, war früh klar, dass Sabine Synkule auch beruflich einmal diese Richtung einschlagen würde. Nach einem Physikstudium und einer Zeit als wissenschaftlicher Mitarbeiterin entschied sie sich schließlich dafür, nicht mehr selbst zu forschen, sondern über die Ergebnisse der Forschung anderer zu berichten. So ist sie schließlich im Fachjournalismus gelandet und dort für die Bereich Messtechnik, Sensoren und Stromversorgung zuständig. Deshalb – und weil sowieso niemand ihren Nachnamen richtig ausspricht – wird sie auch gerne als die Power-Frau von Hüthig vorgestellt. Privat würde niemand auf die Idee kommen, dass ihr Beruf etwas mit Technik zu tun hat. So fragt sie keiner ihrer Bekannten jemals um Rat, wenn einmal ein Fernseher oder Computer kaputt ist. Ihre Expertise wird nur bei der Umsetzung aufwändiger Kochrezepte oder dem Erstellen neuer Strick- und Stickmuster eingeholt.