
Sind Vision-Sensoren mittlerweile so einfach zu bedienen wie ein Opto-Sensor?
Mike Gonschior (IFM): ‚Mittlerweile‘ ist aus meiner Sicht der falsche Begriff. Wir arbeiten schon seit Jahren daran, dass unsere Vision-Sensoren sehr einfach zu bedienen sind. So haben wir etwa einen Vision-Sensor im Programm, der als Codereader arbeitet und wie ein Opto-Sensor mit einer Taste geteacht werden kann. Für komplexere Aufgaben gibt es unsere Software IFM Vision Assistant. Diese ist so ausgelegt, dass der Anwender Lösungen völlig ohne Programmieraufwand erstellen und in Betrieb nehmen kann: die Bedienung ist so simpel wie ein Smartphone. Ein Spezialwissen im Bereich Bildverarbeitung ist dazu nicht notwendig.
Christoph Wagner (Wenglor): Auch wir investieren kontinuierlich in die Weiterentwicklung der Benutzerfreundlichkeit und legen großen Wert auf eine intuitive User Experience. Dennoch lässt sich die Komplexität nur bis zu einem gewissen Grad reduzieren, ohne damit gleichzeitig die Einsatzmöglichkeiten durch starke Vereinfachung zu senken. Die eigentliche Herausforderung im Bereich Machine Vision – und damit auch bei Vision-Sensoren – liegt nach wie vor im korrekten optischen Setup. Hier können Softwarelösungen oder auch der Einsatz von KI nur bedingt bei der Problemlösung unterstützen.
Dr. Nadja Nagel (Sensopart): Die Einfachheit von Opto-Sensoren zeigt sich darin, dass sie schnell, intuitiv und ohne Spezialwissen bedienbar sind. Genau das gilt auch für unseren Vision-Sensor Visor. Robust, kompakt und mit standardisierten Schnittstellen ist er einfach integrierbar und arbeitet zuverlässig ohne Nachjustierung. Neu hinzugekommen ist das browserbasierte SensoConfig Web für den Visor Code Reader, das eine plattformunabhängige Einrichtung ohne Softwareinstallation ermöglicht. Ein intuitiver Assistent mit automatischer Code-Erkennung führt Schritt für Schritt durch die Konfiguration. Profis können bei Bedarf weiterhin Expertenfunktionen nutzen.

Wie sieht es mit der Integration von KI in Vision-Sensoren aus?
M. Gonschior: Bildverarbeitung ist für KI der ideale Anwendungsfall. Das haben wir bereits vor rund fünf Jahren mit unserem Werker-Assistenzsystem IFM mate mit KI-Handerkennung demonstriert. Inzwischen ist die Integration von KI in Vision-Sensoren fast schon zum Standard geworden. Die stetig steigende Rechenleistung, die zur Verfügung steht, ist der Schlüssel für den Einsatz von KI-Algorithmen, wie etwa der Personenerkennung, auch in Vision-Sensoren.
N. Nagel: KI ist längst in Vision-Sensoren angekommen. Bei SensoPart setzen wir auf Deep Learning direkt am Sensor. Unser Visor Object AI erkennt und unterscheidet Objekte zuverlässig und das ganz ohne Expertenwissen. Das Training erfolgt über Beispielbilder, die direkt mit der Kamera aufgenommen werden. Die Ausführung läuft standalone auf dem Visor XE, der KI-Rechenleistung und die bewährte Bildverarbeitungs-Toolbox in einem kompakten Sensor vereint. Damit wird KI für industrielle Anwendungen auch für Nutzerinnen und Nutzer ohne Bildverarbeitungskenntnisse einfach und praxisnah nutzbar.
C. Wagner: Wir verstehen den Einsatz von KI in Vision-Sensoren auf zwei Arten. Zum einen geht es um KI-gestützte Bildverarbeitung. Diese hat sich in den vergangenen Jahren zunehmend etabliert und findet heute bereits in vielen Applikationen Platz. Zudem sehen wir großes Potenzial in KI-gestützten Assistenten. Diese unterstützen bei der Inbetriebnahme, bei der Optimierung laufender Systeme oder auch im Störungsfall kompetent und rund um die Uhr und tragen so maßgeblich zur Verbreitung und Akzeptanz von Machine Vision bei.
Welche Neuheiten zu Vision-Sensoren werden wir auf der SPS von Ihnen sehen?
M. Gonschior: Eins der Highlights wird das neue Kollisionswarn-System O3M AI für mobile Maschinen sein, das 2D- und 3D-Technologie in nur einem System vereint. Dank eines Hochleistungsprozessors können 2D- und 3D-Sensordaten direkt im O3M-Sensor verarbeitet und fusioniert werden. Dabei wird eine Plausibilitätsprüfung der KI-gestützten Personenerkennung durchgeführt und mit den Umgebungsinformationen des 3D-Sensors abgeglichen. Eine weitere Lösung, die wir zeigen, ist der Sensor O2U. Dieser kombiniert eine 2D-Inspektion für die Kontur oder Flächenerkennung mit einem Codereader. Damit kann z.B. anhand des QR-Codes geprüft werden, ob das vorliegende Bauteil tatsächlich dem Auftrag entspricht, während gleichzeitig per Kontur- und Flächenanalyse eine Qualitätskontrolle stattfindet.















![Die [me] – mechatronik & engineering wird digital](https://cdn.tedo.be/tedo-mu/wp_uploads/sites/10/2026/03/Unbenannt.jpeg)


