Jederzeit scharfe Sicht

Quanteneffizienz und Wellenlängen-Optimierung bei Bildsensoren

  • Bild 1: Die Wellenlängen, welche die lichtempfindlichen Zellen eines menschlichen Auges in der Nacht (skotopisches Sehen) und am Tage (photopisches Sehen) erfassenBild 1: Die Wellenlängen, welche die lichtempfindlichen Zellen eines menschlichen Auges in der Nacht (skotopisches Sehen) und am Tage (photopisches Sehen) erfassen
  • Bild 1: Die Wellenlängen, welche die lichtempfindlichen Zellen eines menschlichen Auges in der Nacht (skotopisches Sehen) und am Tage (photopisches Sehen) erfassen
  • Bild 2a: QE-Wert in Beziehung zur Wellenlänge bei neuartigen Global-Shutter-CMOS-Imagern.
  • Bild 2b: Um den MTF-Wert für langwelliges Licht im oberen, nicht sichtbaren Spektrum zu verbessern, werden Deep-Depletion-Fotodioden verwendet.
  • Bild 3: Vergleich von Front Side Illumination (FSI) und Back Side Illuminiation (BSI): Bei BSI (rechts) fällt das Licht direkt auf die lichtempfindliche Schicht der Diode.
  • Bild 4: Outdoor-Smart-Kamera müssen mit extrem unterschiedlichen Lichtverhältnissen zurechtkommen, von gleißendem Tageslicht bis hin zu Schwachlicht am Abend oder in der Nacht. Der Bildsensor muss daher einen hohen Dynamikbereich abdecken.
  • Bild 5: Formel

Die Leistung eines industriellen Bildverarbeitungssystems hängt maßgeblich von der elektro-optischen Effizienz der Pixel der Bildsensoren ab. Eine Schlüsselrolle spielen dabei die Quanteneffizienz und die Wellenlängen-Sensitivität. Beide Faktoren lassen sich mithilfe spezieller Verfahren optimieren.

In der Imaging-Industrie dominierte bislang der Ansatz, die Öffnung (Aperture) von Pixeln zu reduzieren, um die Auflösung zu erhöhen. Dieses "Rennen" um immer kleinere Pixel-Größen ist vor allem bei Bildverarbeitungsprodukten im Konsumbereich zu beobachten. Dort liegt in manchen Fällen die Pixel-Breite nur noch knapp über der Wellenlänge des sichtbaren Lichts. In der industriellen Bildverarbeitung läuft die Entwicklung in Richtung immer kleinerer Bildpunkte langsamer ab. Ein Grund ist, dass in diesem Bereich Pixel mit mehreren Transistoren Verwendung finden. Sie bilden die Grundlage für Bildsensoren mit Global- oder Shapshot-Shutter-Technik. Eine Multiple-Transistor-Pixel-Architektur erlaubt zudem hohe Full-Well-Kapazitäten. Diese sind die Voraussetzung für hohe lineare Dynamikbereiche und ein optimales Signal-Rausch-Verhältnis.
Allerdings können auch in der industriellen Bildverarbeitung in Bezug auf die Sensitivität der Pixel eines Bildsensors kaum Abstriche gemacht werden. Denn ein System ist bei der Echtzeit-Bildbearbeitung auf Rohdaten mit einem hohen Signal-Rausch-Verhältnis angewiesen, und das bei hohen Datenerfassungsraten. Zudem erlauben es immer leistungsstärkere Prozessoren, Bilder mit höheren Auflösungen zu verarbeiten. Die Folge: Die Performance von Bildbearbeitungssystemen nimmt stetig zu. Die Notwendigkeit, die Pixel-Größe zu reduzieren, damit das optische Format und die kostspieligen optischen Komponenten weiterhin verwendet werden können, bestimmt somit auch bis zu einem gewissen Grad die Entwicklung im Bereich industrielle Bildverarbeitung.

Menschliches Auge und elektronische Bildverarbeitung

Die Leistungsfähigkeit von industriellen Bildverarbeitungssystemen hängt maßgeblich von der Empfindlichkeit des CMOS-Sensors für bestimmte Wellenlängen an. Im Vergleich zum menschlichen Auge gibt es in dieser Beziehung gravierende Unterschiede.

Die Nachtsichtfähigkeit (skotoptisches Sehen) des Auges wird maßgeblich durch die Stäbchen der Netzhaut bestimmt. Diese Rezeptoren können sogar einzelne Photonen wahrnehmen, allerdings nur Licht einer Wellenlänge (Schwarzweiß). Bei Tageslicht (photopischem Sehen) kommen dagegen zapfenförmige Fotorezeptoren zum Zuge. Sie ermöglichen es dem Menschen, Farben zu erkennen (Bild 1). Das heißt: Je schlechter die Lichtverhältnisse sind, desto weniger Farbinformationen nimmt das menschliche Auge wahr.
Bei elektronischen Bildbearbeitungssystemen spielt beim Weiterleiten von Licht zum Bildsensor die optische Linse eine zentrale Rolle. Der größte limitierende Faktor ist die unzulängliche Umwandlung von Photonen in elektrische Signale. Damit ein Imaging-System auch bei schwachem Licht zufriedenstellende Resultate liefert, ist es notwendig, das Rauschen zu minimieren und die Signalempfindlichkeit des Sensors zu erhöhen. Das bedeutet, dass das Hauptaugenmerk auf einem optimalen Signal-Rauschabstand (Signal-to-Noise Ratio, SNR) liegen muss.

Kosten und Leistungswerte bestimmen Pixel-Größe

Ähnlich wie die Blendenöffnung einer Linse haben die "Aperture" der Pixel eines Sensors und die Oberfläche der Bildpunkte einen direkten Einfluss auf dessen Empfindlichkeit. Vereinfacht gesagt: Je kleiner ein Pixel, desto weniger Photonen erreichen den Sensor während des Messzeitraums. Deshalb hängt die minimale Pixel-Größe maßgeblich davon ab, welche Leistungswerte ein Sensor bei Schwachlicht erzielen soll. Die maximale Pixel-Größe wiederum wird von den Systemkosten, den optischen Komponenten und den Anforderungen in Bezug auf die Bildauflösung bestimmt.
Weitere Faktoren, welche die Quanteneffizienz (QE), also die Effizienz der Umwandlung von Photonen in Elektronen, beeinflussen, sind der verwendete CMOS-Prozess und die Pixel-Architektur. Weiterhin muss berücksichtigt werden, welche Fläche auf dem Pixel beziehungsweise CMOS-Sensor zur Verfügung steht. Dies gilt für Licht im Bereich zwischen 780 nm (nahes Infrarot) und 38 nm (Ultraviolett, UV).
e2v erzielte beim Megapixel-Sensor EV76C560 und davon abgeleiteten Produkten besonders hohe QE-Werte. So weist der EV76C660 im Bereich des für Menschen sichtbaren Lichts und bei nahem Infrarot (NRI, Near Infrared) einen Quanteneffizienz-Wert von mehr als 80 Prozent auf - deutlich mehr als CMOS-Sensoren anderer Anbieter (Bild 2a). Dieser QE-Wert gilt für ein Global-Shutter-Pixel mit fünf Transistoren und einem Pixel-Abstand (Pixel Pitch) von 5,3 µm x 5,3 µm.

Optimierung der Quanteneffizienz

Eine Eigenheit von Silizium ist, dass Licht hoher Wellenlänge tiefer in eine Siliziumschicht eindringt als kurzwellige Lichtstrahlen. Aus diesem Grund werden bei Fotodioden häufig dicke Epitaxie-Schichten verwendet. Sie erhöhen die Diffusionstiefe der Diode und ermöglichen dadurch höhere QE-Werte bei Licht in den Bereichen langwelliges Rot und niedriges Infrarot (unter 1100 nm). Der Nachteil ist, dass voluminöse Epitaxie-Schichten den MTF-Wert (Modular Transfer Function, Modulationsübertragungsfunktion) reduzieren, weil optisches Nebensprechen auftritt.
Die Bildqualität wird anhand der Kombination des MTF-Wertes und der Detective Quantum Efficiency (DQE) bestimmt. Bei DQE müssen sowohl der räumliche Bereich (Space Domain) als auch der Frequenzbereich (Frequency Domain) berücksichtigt werden. Die MTF ist der zweitwichtigste Parameter. Um den MTF-Wert für langwelliges Licht im oberen, nicht sichtbaren Spektrum zu verbessern, werden Deep-Depletion-Fotodioden verwendet, bei denen herstellerspezifische Methoden für die Siliziumdotierung zum Einsatz kommen (Bild 2b).

Das Rauschen reduzieren

Das Bildrauschen eines Sensors ist auf mehrere Faktoren zurückzuführen. Als Störquellen kommen die Auslese-Elektronik und Schnittstellen in Betracht, häufig in direkter Abhängigkeit von der Temperatur. Ein Beispiel ist das Dunkelstromrauschen (Dark Current Noise), das bei längeren Messzeiträumen auftritt. Eine andere Variante des zeitlichen Rauchens (Temporal Noise) sind kT/C-Effekte. Sie belassen während der Reset- und Taktungsvorgänge, die einer Messung vorausgehen, in den Sensor- und Speicherknoten eines Pixels eine Restspannung.
Da jedes Pixel über einen eigenen Verstärker verfügt, ist es zudem selbst eine primäre Quelle für zeitliches Rauschen. Ein Teil der Störungen lässt sich beseitigen, indem die Verstärkung oder die Bandbreite begrenzt werden. Die Folge ist jedoch ein niedrigerer Dynamikbereich, weil das Verschieben der elektrischen Ladungen eingeschränkt ist.
Photonen sind die Energiequanten, die in einer Fotodiode in Elektronen umgewandelt werden. Das Grundrauschen ist dabei naturgemäß eine elektrische Spannung. Jedes Elektron beeinflusst somit die Empfindlichkeit des Bildsensors. Denn der minimale Signal-Rauschabstandswert beträgt 1 in Abhängigkeit von den Photonen geteilt durch das Rauschen (siehe Formel). Der CV-Faktor (Charge to Voltage Conversion, Ladungs-Spannungs-Wandlung) definiert die Umsetzung von Rauschen in der Spannungsdomäne. Je höher der CVF ist, desto besser.

Back Side Illumination: Licht von hinten

Damit auch bei Schwachlicht den Pixeln eines Bildsensors möglichst viel Licht zur Verfügung steht, ist es notwendig, den Füllfaktor des Sensors und dessen Quanteneffizienz zu optimieren. Dies lässt sich mit der Back Side Illumination (BSI) erreichen. Dieses Verfahren ist bereits mehr als 20 Jahren bei CCD-Sensoren im Einsatz. Der Wafer mit der Fotodiode wird dabei gewissermaßen auf den Kopf gestellt und mit der nach oben gerichteten lichtempfindlichen Seite montiert. Das Licht muss nicht, wie bei der Front Side Illumination, zuerst die Silizium-Schicht des Halbleiter-Sensors durchlaufen, was zu einer Abschwächung des Lichts führt. Bei BSI werden auch Farbfilter und optische Komponenten wie Linsen auf der dünnen Seite des Halbleiter-Wafers montiert. Der Vorteil: ein deutlich höherer Füllfaktor.
Bei der Front Side Illumination ist die Fotodiode dagegen gewissermaßen unter Metallschichten begraben. Diese trennen den Bereich, in dem die Photonen gesammelt werden, von der Oberfläche der Pixel, in die das Licht eintritt (Bild 3). Der Füllfaktor ist bei kleineren Pixeln höher als bei größeren. Dies ergibt sich aus dem Verhältnis zwischen der Aperture der horizontal angeordneten Pixel (x-, y-Achse) und dem Durchmesser der optischen Schicht (z-Achse) über der Diode.
Allerdings lassen sich mithilfe von BSI auch bei größeren Pixeln deutliche Verbesserungen in Bezug auf die Quanteneffizienz erreichen. Beim Füllfaktor fallen die Gewinne dagegen niedriger aus. Bei der Back Side Illumination entfallen Faktoren wie die Photonenstreuung und die optische Abschirmung - weitere negative Effekte der Metallschichten eines Bildsensor-Wafers. Zusätzliche Verbesserungen lassen sich mithilfe einer Antireflex-Beschichtung mit Breitband- oder Bandpass-Filtern auf der Oberfläche eines Sensor-Arrays erzielen.

Anwendungsbeispiele aus der Praxis

Zu den Einsatzgebieten in der industriellen Bildverarbeitung, bei denen die Wellenlänge eine wichtige Rolle spielt, zählen Smart-Kameras für den Außenbereich. Solche Systeme sind in unterschiedlichen Varianten zu finden, etwa als fest montierte Kameras, die teilweise über Funktionen für das Schwenken, Neigen oder Zoomen verfügen, außerdem in Form von mobilen Kameras in Fahrzeugen und Flugzeugen. Solche Smart-Kameras kommen beispielsweise bei Transportsystemen zum Einsatz, außerdem in Überwachungssystemen, die auch bei schlechten Lichtverhältnissen oder in der Nacht funktionieren müssen.
Kamerasysteme für die Tag- und Nachtsicht weisen ähnliche Eigenschaften auf wie das menschliche Auge: Bei schlechten Lichtverhältnissen lässt die Fähigkeit nach, Farben zu erkennen. Bei solchen Kameras kommen zudem weitere Techniken zum Einsatz, etwa NIR-Strahler (Near Infrared), deren Belichtungszeiten synchronisiert werden, sowie ein Verfahren, das die Infrarot-Filterwirkung von Linsen reduziert. QE-Werte von 50 Prozent (beim e2v EV76C660) bei 900 nm bedeuten in der Praxis niedrigere Kosten bei der NIR-Beleuchtung.
Smart-Kameras müssen zudem auch bei Tageslicht optimale Resultate liefern. Die Herausforderung besteht in diesem Fall im hohen Dynamik-Bereich, den es abzudecken gilt, sowie den häufig wechselnden Lichtverhältnissen. Ein Beispiel: Ein Teil des Bereichs, den ein Kamerasystem erfassen soll, liegt im Schatten, der andere wird von der Sonne oder künstlichen Lichtquellen angestrahlt. Um verwertbare Bildinformationen zu gewinnen, etwa beim Erfassen von Fahrzeugkennzeichen in der Nacht, ist ein großer Dynamik-Bereich erforderlich. Dieser lässt sich bei CMOS-Imagern auf der Pixel-Ebene erzielen.

Alarmsysteme in der Industrie und Barcode-Scanner

Ein weiteres Anwendungsfeld ist die Bilderfassung bei hohen Frame-Raten. Die Anforderungen in diesem Bereich ähneln denen bei Niedriglicht-Bedingungen. Der Grund sind die extrem niedrigen Integrationszeiten. Sie erfordern eine hohe Lichtsensitivität in Kombination mit niedrigem Rauschen.
Systeme zum Schutz von Maschinenbedienern in der Industrie und Systeme, die Räume oder Areale absichern, verwenden häufig Infrarotlicht (Near Infrared). Bildsensoren mit hoher Lichtempfindlichkeit und guten MTF-Antwortzeiten (Modulation Transfer Function) erlauben es, Alarmanlagen zu entwickeln, die mit niedrigeren Ausleuchtwerten auskommen.
Ein weiteres Anwendungsfeld ist das Identifizieren und Scannen von Barcodes. Entsprechende Applikationen verwenden rotes Licht. Bessere Leistungswerte von Bildsensoren in den Bereichen nahes Infrarot und Rot im oberen Wellenlängenbereich kommen insbesondere 2D-Barcode-Scannern mit Flächensensoren zugute. Dank des höheren Signal-Rauschabstands bei diesen Wellenlängen ist eine niedrigere Lichtintensität erforderlich, um eine fehlerfreie automatische Erfassung von Strichcodes sicherzustellen. Das wiederum wirkt sich positiv auf die Akku-Laufzeiten von mobilen Scannern aus. Bei fest installierten Scannern wiederum lässt sich die Wellenlänge erhöhen. Das schont die Augen der Mitarbeiter, die solche Systeme bedienen. 

Autor(en)

Kontaktieren

E2V Technologies
16 Burospace-Rt.de Gisy
91572 Bievres Cedex
France
Telefon: +33 (0) 1 6019 5500
Telefax: +33 (0) 1 6019 5529

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.