Extrem schnelle prismabasierte 10GBase-T-Zeilenkamera

RGB meets 10GigE

Extrem schnelle prismabasierte 10GBase-T-Zeilenkamera

Ein prismabasierter RGB-Ansatz mit der Zeilenkamera SW-4000T-10GE und einer 10GBase-T-Schnittstelle mit Rückwärtskompatibilität, die NBase-T und 1000Base-T kombiniert, ermöglicht ein neues Verfahren bei der Farbzeilentechnologie.

Die Verbindung von prismabasiertem Line-Scan und 10GBase-T-Schnittstelle macht die SW-4000T-10GE zur schnellsten prismabasierten Zeilenkamera der Welt. Sie hat eine Auflösung von 4.096 Pixeln/Kanal und Geschwindigkeiten von über 100kHz. (Bild: JAI A/S)

Die Verbindung von prismabasiertem Line-Scan und 10GBase-T-Schnittstelle macht die SW-4000T-10GE zur schnellsten prismabasierten Zeilenkamera der Welt. Sie hat eine Auflösung von 4.096 Pixeln/Kanal und Geschwindigkeiten von über 100kHz. (Bild: JAI A/S)

Die Verbindung von prismabasiertem Line-Scan und 10GBase-T-Schnittstelle macht die Kamera mit 4.096Pixeln/Kanal und Geschwindigkeiten von über 100kHz zur schnellsten prismabasierten Zeilenkamera der Welt. Das Modell der Sweep+ Serie basiert auf der Multi-Zeilen-Sensortechnologie, die eine Auswahl der Pixelgröße pro Farbkanal durch den Benutzer zulässt. Der CMOS-Sensor bietet quadratische als auch rechteckige Pixelmodi mit zwei angrenzenden Zeilen jeden Typs. Diese Konfiguration eignet sich für Anwendungen bei schlechten Lichtverhältnissen oder geringer Empfindlichkeit. Der Zweizeilen-Ansatz zusammen mit den Algorithmen im FPGA der Kamera ermöglicht ein Pixelbinning in Echtzeit über ein gemeinsames Spannungs- und Floating-Diffusion-Gate. Dadurch wird die Ansprechempfindlichkeit der Pixel um fast 300 Prozent gesteigert. Eine Kombination von horizontalem und vertikalem Binning führt zu einer Auflösung von 2.048Pixeln und einer Pixelgröße von 15×15µm.

Abwärts kompatible Schnittstellenplattform

Der Line-Scan-Markt zielt auf einen umfassenden Anwendungsbereich mit unterschiedlichsten Geschwindigkeitsanforderungen ab. Langsame Anwendungen wie das Sortieren von Gemüse, Obst, Steinen, Mineralien und Abfall funktionieren gut mit einer herkömmlichen GigE-Schnittstelle (1000Base-T), während schnelle Anforderungen wie Druck- und Verpackungsprüfung, Straßen- und Bahnschienenprüfung heutzutage auf CoaXPress oder CameraLink beruhen. Bisher war der Schnittstellentyp anwendungsabhängig. Die SW-4000T-10GE basiert auf einer abwärts kompatiblen 10GBase-T-Schnittstellenplattform, welche dank einer 10Gbps-Plattform auch NBase-T (5 und 2.5GBase-T) und das standardmäßige GigE (1000Base-T) zulässt. Dieser Ansatz widersetzt sich den herkömmlichen Normen, die besagen, dass eine Anwendung den Typ der Schnittstelle bestimmt. Dank der Abwärtskompatibilität können die meisten Line-Scan-Anwendungen effektiv eingeschlossen werden. Die Kombination einer GigE-Schnittstelle mit Prismatechnologie bietet zusätzlich technologische Vorteile. Eine effiziente optische Prüfung von Gegenständen, die sich mit unbekannter oder variierender Geschwindigkeit bewegen, kann nur anhand von Prismatechnologie erzielt werden. Die einzelne optische Achse vom Objekt zur Kamera und die Streuung des Lichts im Prisma bieten hier einen einzigartigen Vorteil. Weitere Argumente sind z.B. die Anpassung von Analog- und/oder Digitalverstärkung sowie Belichtungszeit für jeden Farbkanal. Hier ist anzumerken, dass einzelne Belichtungszeiten für jeden Farbkanal nicht vorteilhaft sind, wenn die Belichtungszeit des Line-Scans durch die Art der Line-Scan-Anwendungen begrenzt ist (d.h. sich schnell bewegende Gegenstände). Bei der Prismatechnologie erfolgt die Streuung des Lichts auf dem Prismablock, der aus dichromatischen Hartstoffbeschichtungen besteht und die als Interferenzfilter agieren. Die Steilheit der Beschichtungen führt zu geringeren spektralen Einstreuungen, welche sich bei R-G-B-Kameras als geringere Farbeinstreuung bemerkbar machen würden. Die überragende Farbqualität bei prismabasierten Kameras ist auf das Zusammenspiel dieser beiden Faktoren zurückzuführen, was hohen Farbkontrast und großen Dynamikbereich zur Folge hat.

Interne 3D-Farbkonvertierung

Das FPGA der Kamera ermöglicht eine interne 3D-Farbkonvertierung von RGB zu HSI und RGB zu CIE-XYZ. Der HSV-Farbraum (Farbwert, Farbsättigung und Helligkeitswert) wird oft bei der Bildanalyse zur Merkmalerkennung oder Bildsegmentierung eingesetzt. Da es sich beim kameraeigenen RGB-HSI-Raum um einen Ein-Schritt-Algorithmus handelt, läuft dieser Prozess in Echtzeit ab. So könnte ein RGB-Farbraum für einfachere Aufgaben wie die Differenzierung zwischen roten und grünen Äpfeln oder LEDs verwendet werden. Zur Differenzierung zwischen zwei roten Äpfeln oder LEDs wird ein empfindlicherer Farbraum benötigt. In diesem Fall basiert die Differenzierung nicht nur auf dem Farbton der Oberfläche, sondern auch auf der Tiefe des Farbtons, d.h. auf Sättigung und Helligkeit oder Dunkelheit in Bezug auf die Intensität. Ähnlich wie HSI ist XYZ ein 3D-Farbraum, der die Grundlage aller CIE-basierten Farbkonvertierungen bildet. Bei Anwendungen wie Druck-, Verpackungs-, Textil- und Fliesenprüfungen wird der Farbraum Cielab benutzt. CIE-XYZ bildet die Grundlage einer solchen Konvertierung, die am Kamerakopf ausgeführt werden kann. Die Kamera ermöglicht zudem eine sRGB- und Adobe-RGB-Konvertierung. Anhand der kameraeigenen 3×3 Matrix kann der Anwender außerdem eine eigene RGB-Palette definieren, d.h. es können z.B. eine spezifische Sichtbedingung oder Lichtquelle, spezifische Kalibrierungsdaten oder spezifisches Anwendungs-Know-how über die 3×3 Matrix eingegeben werden. Das interne FPGA verarbeitet den RGB-Farbraum der Kamera mit der 3×3 Matrix, um einen benutzerdefinierten RGB-Farbraum auszugeben. Die Kamera fungiert als Geschwindigkeitsmessgerät, das die vertikale Auflösung wahrt, um die ´Rechteckigkeit´ der Pixel zu steuern. Die Einstellung des Drehgebers durch die Kamera erübrigt die Verwendung von Verkettungskomponenten und verhindert Verzögerungen bei Auslöserkonfigurationen mit mehreren Kameras. Die Kamera erzielt Geschwindigkeiten von mehr als 100kHz, wenn anstatt der vollen 4.096-Zeilen-Auflösung ein ROI des Sensors gelesen wird.

Themen:

| Fachartikel

Ausgabe:

inVISION 2 2019

Das könnte Sie auch Interessieren