Prozesssynchronisation mittels Trigger – ein Leitfaden

Prozesssynchronisation mittels Trigger – ein Leitfaden

Bei der Bildverarbeitung muss ein Bild genau dann aufgenommen werden, wenn sich das (bewegte) Objekt vollständig unter dem Objektiv befindet und die Beleuchtung aktiviert ist. Eigentlich einfach, aber im Detail liegen oft Fallstricke. Welche das sind, zeigt der Beitrag.

web 275685
Bild 1 | Arbeiten Maschinentakt und Kamera nicht synchron, befinden sich Objekte bei der Bildaufnahme nicht genau unter der Kamera (rechts), was eine einwandfreie Funktion bildverarbeitender Algorithmen erschwert. (Bild: Baumer Optronic GmbH)

Die Synchronisierung zwischen Maschinentakt im Verarbeitungsprozess, Kamera und Beleuchtung erfolgt über Trigger, d.h. externe Signale oder Ereignisse, die den Bildeinzug der Kamera starten und deren Quellen Hardwarekomponenten sind oder in der Software liegen. Die Signale müssen erzeugt, transportiert und verarbeitet werden. Dies sind Prozessschritte, die Zeit benötigen bzw. Schwankungen unterworfen sind und damit berücksichtigt werden müssen. Moderne Industriekameras sind für diese Synchronisation jedoch bestens gerüstet.

Trigger verwenden

Für die Synchronisation empfiehlt sich die Verwendung von Triggern, unabhängig vom verwendeten Kameratyp. Die Kamera sollte nicht im Free Running Modus laufen, sondern in der Software muss der TriggerMode aktiviert sein. Sobald die Kamera den Trigger empfängt, beginnt sie mit der Bildaufnahme nach einem einstellbaren TriggerDelay. Mit dieser Verzögerung wird sichergestellt, dass Schwankungen oder Verzögerungen im System (etwa durch Kabel oder Beleuchtungselektronik) berücksichtigt werden. In der Regel muss der Delay durch Versuche bestimmt werden, da er von den verwendeten Komponenten abhängt. Die Verzögerung in der Kamera selbst, ist als Maximalwert im Datenblatt angegeben. Wird mit Triggern gearbeitet, gilt außerdem zu beachten, wann die Kamera für den nächsten Trigger empfänglich ist. Dies hängt vom verwendeten Kamera- und Sensortyp ab. Für den Anwender ist es wichtig festzulegen, welche Bildrate die Applikation benötigt. Damit können weitere Parameter festgelegt, bzw. manche Sensoren und Kameratypen ausgeschlossen werden.



  • Mind the Gap

    Conventional line-scan hyperspectral imagers are fundamentally constrained so they cannot simultaneously provide good imaging and high throughput needed for large SNR. To…


  • Gelungene Premiere

    Das von HD Vision Systems und Partnern (AT Sensors, Balluff, Lucid Vision, Pepperl+Fuchs, …) erstmalig organisierte Intelligent Automation & Inspection Forum im…


  • Licht vermessen

    Für die Vermessung der Wirkungen von Licht gibt es zwei Möglichkeiten: eine neutrale und eine menschenbezogene. Jede der beiden besitzt ein eigenes…


  • Welcome back

    Vom 20. bis 21 Mai findet das Comeback der CHII (Conference on Hyperspectral Imaging in Industry) in Graz statt. An den zwei…


  • Premiere!

    Da die Messe Control auf einen Zwei-Jahres-Rhythmus gewechselt ist und erst 2027 wieder stattfindet, veranstaltet die P. E. Schall in diesem Jahr…


  • Vision Weighing

    Modern egg grading increasingly relies on vision-based systems to support consistent quality assessment and efficient grading at high capacity. In Sanovo grading…


  • CRA & Machine Vision

    Für IDS beeinflusst der CRA vor allem, wie wir sicherheitsrelevante Rückmeldungen aus dem Feld verarbeiten: Hinweise müssen schnell bewertet und in Korrekturen…


  • Thomas Hopfner

    Machine-Vision-Software ist eine wesentliche Komponente von modernen Produktionssystemen.


  • Anne Wendel

    Beim Cyber Resilience Act (CRA) handelt es sich um eine neue europäische CE-Kennzeichnungsverordnung, die in Gänze ab Dezember 2027 Anwendung findet.


  • I’m (not) on fire

    Industrial lumber manufacturing is a high-speed, high-volume industry that operates machinery with intense friction at all most stages of a production. Common…