Bewegte Objekte in Echtzeit

 3D-Anordnung der rot, grün und blauen LED-Module und zugehörige Farbkamera. (Bild: Hochschule Ravensburg-Weingarten)
Bild 3: 3D-Anordnung der rot, grün und blauen LED-Module und zugehörige Farbkamera. (Bild: Hochschule Ravensburg-Weingarten)

Um bewegte Objekte, z.B. solche die mittels Förderband bewegt werden, in Echtzeit zu prüfen, stellt diese sequentielle Beleuchtungsmethode eine Einschränkung dar. Abhängig von Objektgeschwindigkeit und Beleuchtungstakt resultiert Bewegungsunschärfe, die den Einsatz des Verfahrens stark limitiert. Möchte man das Objekt mit einer einzigen Bildaufnahme prüfen, so kann man dies mittels spektraler Trennung der Beleuchtung erreichen. Das Prinzip des Ansatzes bleibt dabei gleich: das bewegte Objekt wird aus drei unterschiedlichen Richtungen beleuchtet. Statt farblich gleiche LED-Module und eine Grauwertkamera zu verwenden, werden rote, grüne und blaue LED-Module und eine Farbkamera eingesetzt. Die in der Farbkamera integrierten Farbfilter sorgen dabei für die spektrale Trennung der Bilder. Jedes der dabei resultierenden R-, G- und B-Komponentenbilder trägt eine unterschiedliche Richtungsinformation, die anschließend für die Rekonstruktion der Oberflächennormalen verwendet wird. Dieses Verfahren wird ebenfalls auf Basis der beschriebenen Komponenten im 3D.LAB eingesetzt. Wesentliche Einschränkung des Verfahrens ist die unter Umständen unterschiedliche Wechselwirkung der drei Wellenlängen mit der Objektoberfläche und die reduzierte Bildauflösung.

 

Literatur

[1] C.-H. Lee, A. Rosenfeld. An approximation technique for photometric stereo. Pattern Recognition Letters, 2:339-343, 1984

[2] Zhang R, Tsai PS, Cryer JE, Shah M: Analysis of shape from shading techniques. IEEE CVPR June, 1994; 377-384



  • Mind the Gap

    Conventional line-scan hyperspectral imagers are fundamentally constrained so they cannot simultaneously provide good imaging and high throughput needed for large SNR. To…


  • Gelungene Premiere

    Das von HD Vision Systems und Partnern (AT Sensors, Balluff, Lucid Vision, Pepperl+Fuchs, …) erstmalig organisierte Intelligent Automation & Inspection Forum im…


  • Licht vermessen

    Für die Vermessung der Wirkungen von Licht gibt es zwei Möglichkeiten: eine neutrale und eine menschenbezogene. Jede der beiden besitzt ein eigenes…


  • Welcome back

    Vom 20. bis 21 Mai findet das Comeback der CHII (Conference on Hyperspectral Imaging in Industry) in Graz statt. An den zwei…


  • Premiere!

    Da die Messe Control auf einen Zwei-Jahres-Rhythmus gewechselt ist und erst 2027 wieder stattfindet, veranstaltet die P. E. Schall in diesem Jahr…


  • Vision Weighing

    Modern egg grading increasingly relies on vision-based systems to support consistent quality assessment and efficient grading at high capacity. In Sanovo grading…


  • CRA & Machine Vision

    Für IDS beeinflusst der CRA vor allem, wie wir sicherheitsrelevante Rückmeldungen aus dem Feld verarbeiten: Hinweise müssen schnell bewertet und in Korrekturen…


  • Thomas Hopfner

    Machine-Vision-Software ist eine wesentliche Komponente von modernen Produktionssystemen.


  • Anne Wendel

    Beim Cyber Resilience Act (CRA) handelt es sich um eine neue europäische CE-Kennzeichnungsverordnung, die in Gänze ab Dezember 2027 Anwendung findet.


  • I’m (not) on fire

    Industrial lumber manufacturing is a high-speed, high-volume industry that operates machinery with intense friction at all most stages of a production. Common…