HDR für live Bilder

HDR für live Bilder

Preiswerter HDR-CMOS-Sensor für den Außeneinsatz

Industriekameras im Außeneinsatz stehen vor besonderen Herausforderungen: Wechselnde Lichtverhältnisse durch Tag und Nacht und falls sie in der Verkehrsüberwachung eingesetzt werden, kann Gegenlicht ein gängiges Problem sein. Eine hohe Dynamik des Sensors ist der Weg zum Ziel und wird fälschlicherweise oft mit teuer in Verbindung gebracht. Das dem so nicht ist, beweist der CMOS-Sensor AR0331 von Aptina/ON Semiconductor mit HDR-Modus. Was er kann zeigt der folgende Anwenderbericht.

Bild 1: 16Bit lineares Bild des AR0331 HDR-CMOS (erzeugt aus einer Belichtung mit 4ms und einer zweiten mit 250µs). Dargestellt werden jeweils 8Bit, von l.o. nach r.u. jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung verdoppelt.

Bild 1: 16Bit lineares Bild des AR0331 HDR-CMOS (erzeugt aus einer Belichtung mit 4ms und einer zweiten mit 250µs). Dargestellt werden jeweils 8Bit, von l.o. nach r.u. jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung verdoppelt.

Die Abkürzung HDR (High Dynamic Range) beschreibt eine Video- oder Einzelbild-Übertragungskette, die möglichst hohe Unterschiede zwischen hell und dunkel in einem Bild wiedergeben kann. Aus diesem Grund ist HDR auch bei neuen Flachbildfernsehern ein aktuelles Schlagwort, das heißt da schwarz irgendwann nicht mehr schwärzer gemacht werden kann, muss weiß also heller gemacht werden. Bildlich gesprochen, soll der Zuschauer die Augen zusammen kneifen müssen, wenn die Taschenlampe des Protagonisten durch den Fernseher auf ihn ins Wohnzimmer gerichtet wird. Das ist heute mitnichten so. Einen Überblick über übertragbare Dynamikwerte gibt Tabelle 1. Wenn man von dem intuitiv verständlichen Kontrastverhältnis von hell zu dunkel ausgeht, also z.B. von 8.000:1, so ergibt sich die logarithmische Darstellung aus 20*log(8.000)=78dB. Da nun jedes Bit ~6dB (Faktor 2) Dynamik bringt, beträgt 78dB/6=13Bit Dynamik, gleichbedeutend mit der Anzahl von Blendenstufen (F-Stops), welche auch jeweils zu einer Signalverdoppelung beitragen. Man erkennt, dass das menschliche Auge immer noch der Maßstab ist und gerade so von einer professionellen Spiegelreflexkamera und schon länger vom chemischen Negativfilm erreicht wird. Die Bilddarstellung auf einem Flachbildschirm schafft diese Kontraste derzeit meistens nicht.

Bild 2: Der AR0331 CMOS besitzt eine Funktionalität, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmte Verhältnisse stehen. (Bild: Matrix Vision GmbH)

Bild 2: Der AR0331 CMOS besitzt eine Funktionalität, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmte Verhältnisse stehen. (Bild: Matrix Vision GmbH)

Dynamik bei Kameras

Der EMVA1288 Standard gibt die Möglichkeit, die Dynamik zu messen und vergleichend darzustellen. So erreicht der Sony IMX-Sensor der Pregius-Serie über 70dB, was ~12Bit entspricht. Ferner erreichen hochwertige CCD-Sensoren von Sony um die 60dB (10Bit) und preiswerte Rolling Shutter Sensoren kommen über 60dB. Mehr ist derzeit mit Bildverarbeitungskameras normalerweise nicht möglich. Getrieben von der Innovation bei den Sensoren für Handykameras, die trotz kleinen Pixeln und Rolling Shutter überaus gute Bilder erzeugen, gibt es beim Sensor AR0331 von Aptina/ON Semiconductor folgende interessante Möglichkeit: Während der Sensor mit seinem 12Bit Analog-Digital-Umwandler (ADC) bereits eine sehr gute Dynamik von ~70dB erreicht, kann der Rolling Shutter Sensor darüber hinaus noch zwei verschachtelte Reset Belichtungszeiger bedienen. Diese Funktionalität kann dazu verwendet werden, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmten Verhältnissen stehen. Wenn also die kürzere Belichtungszeit 1/16 der langen ist, so können die oberen 4Bit zu den unteren 12Bit der langen Integrationszeit zu einem 16Bit Wert zusammengefügt werden. Ein 16Bit lineares Bild, welches aus einer Belichtung mit 4ms und einer zweiten mit 250µs erzeugt wurde, sieht nun exemplarisch wie folgt aus: Von links oben nach rechts wird jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung jeweils verdoppelt. Man erkennt, dass die Lampe in den oberen Bits am wenigsten übersteuert ist und man den restlichen Bildinhalt erst in den unteren Bits erkennen kann.

Wo liegen also die Herausforderungen?

Bild 3: Als Ergebnis entsteht durch Adaptive Local Tone Mapping ein Bild, welches die Lampe und den dunkleren Bildinhalt in einem Bild kombiniert. (Bild: Matrix Vision GmbH)

Bild 3: Als Ergebnis entsteht durch Adaptive Local Tone Mapping ein Bild,
welches die Lampe und den dunkleren Bildinhalt
in einem Bild kombiniert. (Bild: Matrix Vision GmbH)

Die Wichtigste ist sicherlich, dieses Bild mit seinem hohen Dynamikumfang auf einem Display, welches die hohe Dynamik gemäß der Anfangstabelle (noch) nicht darstellen kann, natürlich aussehen zu lassen. Dieses Verfahren wird Adaptive Local Tone Mapping (ALTM) genannt. Dies gelingt beispielsweise durch eine spezielle adaptive Kompandierungskennlinie auf dem Sensor. Damit entsteht das letzte Bild aus der Serie von Bild 1, welches die Lampe und den dunkleren Bildinhalt in einem Bild kombiniert. Zusätzliche Funktionen wie Bewegungskompensation oder die Vermeidung farbiger Übersteuerungseffekte sorgen dafür, dass auch bewegte Bilder eine höhere Dynamik, möglichst ohne störende Artefakte, abbilden können. Wohlgemerkt, alles automatisch und bei voller Bildfrequenz von 30fps bei Full-HD-Auflösung und in perfekter Farbqualität. Der AR0331 ist bereits in der USB3 Vision Kamera mvBlueFox3-1031C integriert. Zudem ist weiteres Fine-Tuning möglich, indem der Zugriff über den Treiber direkt auf die Sensor-Register erfolgt und Optionen somit zu-/abgeschaltet werden können. Ein Use Case im Handbuch der Kamera gibt hier einen detaillierteren Einblick.

Tabelle: Dynamikbereich von gängigen Geräten (Quelle https://en.wikipedia.org/wiki/Dynamic_range#cite_note-DXOMark-60)

Tabelle: Dynamikbereich von gängigen Geräten (Quelle
https://en.wikipedia.org/wiki/Dynamic_range#cite_note-DXOMark-60)

Themen:

| Fachartikel

Ausgabe:

inVISION 5 2016
Matrix Vision GmbH

Das könnte Sie auch Interessieren