HDRI

Lexikon der Bildverarbeitung: HDRI - High Dynamic Range Imaging
Bilder von Prüfobjekten und Szenen können nicht immer optimal ausgeleuchtet werden. Die Folge sind unterbelichtete (dunkle) oder überbelichtete (gesättigte) Bildbereiche - im Extremfall beides gleichzeitig. Ebenso problematisch sind kontrastarme Bilder. Allen gemein sind geringe Helligkeits- und Farbunterschiede in den betreffenden Bereichen. Die dadurch verminderte Bildinformation erschwert die Verarbeitung hinsichtlich Erkennbarkeit, Zuverlässigkeit, Genauigkeit.
v.l.o.n.r.u.: 1. Unterbelichtetes Bild, 2. Normal belichtetes Bild, 3. Überbelichtetes Bild, 4. HDR-Bild, generiert aus der Bildserie 1. bis 3. Das HDR-Bild verbindet Erkennbarkeit aller LEDs mit Helligkeits- und Farbkontrast.
v.l.o.n.r.u.: 1. Unterbelichtetes Bild, 2. Normal belichtetes Bild, 3. Überbelichtetes Bild, 4. HDR-Bild, generiert aus der Bildserie 1. bis 3. Das HDR-Bild verbindet Erkennbarkeit aller LEDs mit Helligkeits- und Farbkontrast.Bild: Evotron GmbH & Co. KG

Wurden bisher Auflösung und Aufnahmegeschwindigkeit von Bildern verbessert, stehen aktuell Lichtempfindlichkeit und Helligkeitsdynamik von Bildern im Vordergrund technischer Entwicklungen. Getrieben wird dies durch den technologischen Wandel der Bildsensortechnologie weg vom CCD hin zur CMOS-Technologie. Applikationen wie Fahrassistenzsysteme, Schweißnahtbewertung, Bildverarbeitung in ‚unvorhersehbarer‘ Umgebung fordern auswertbare Bildinformationen auch bei extremen Lichtverhältnissen. Bewertungsgröße für die Möglichkeit, Informationen von Hell bis Dunkel differenziert auszuwerten, ist der Dynamikbereich (DR). Die Extremgrößen größtmögliches Bildsignal (an der Grenze zur Überbelichtung) und kleinstmögliches Bildsignal (Dunkelheit an der Grenze zum Rauschen) werden ins Verhältnis gesetzt. Maßzahlen dafür sind die Anzahl von Elektronen, welche die maximal und minimal darstellbare Helligkeit in einem Bildsensor repräsentieren:

DR = 20 x log10 (nsat / ndark) [dB]

nsat – Anzahl Elektronen ohne Sättigung (full well capacity)

ndark – Anzahl Elektronen beim Pixelrauschen in Dunkelheit

Die erreichbaren Werte des Dynamikbereichs hängen von zahlreichen Faktoren der Sensor- und Kameraarchitektur, Verarbeitungstechnik sowie der optischen Abbildung ab. Dazu gehören u.a.: Pixelgröße, Signal-Rausch-Verhältnis, Bildrate, Quanteneffizienz, Front-/Backillumination, Kennlinie des Bildsensors, Nutzung von Bildserien. Das menschliche Auge kann Dynamikbereiche im Bereich von ca. 100dB wahrnehmen (Kontrastverhältnis 100.000:1). Eine durchschnittliche Kamera tut dies mit ca. 60dB (Kontrastverhältnis 1.000:1). Aktuell sind Kameramodelle mit einem Dynamikbereich von bis zu 120dB verfügbar. Bei der Visualisierung von HDR-Bildern kann die hohe Helligkeitsdynamik von vielen Monitoren nicht wiedergegeben werden, da deren Display dazu nicht in der Lage ist. In diesem Fall wird zur Darstellung mit dem sogenannten Tone-Mapping der Dynamikbereich des HDR-Bildes künstlich reduziert, um die Abbildung auf dem Monitor zu ermöglichen. Detaillierte Angaben zum Dynamikbereich von Kameras beinhaltet die EMVA-Norm 1288.

Das könnte Sie auch Interessieren