Expertenrunde: Wie einfach ist Bildverarbeitung wirklich?

Vision Apps oder eine Oberfläche für alles?

Ziel sei es letztendlich, so Waldl, dass „Bildverarbeitung genauso einfach wird, wie die Bedienung eines Smartphones.“ Ein Anwender soll zukünftig für einfache Anwendungen keine Bedienungsanleitung mehr lesen müssen, sondern „wie bei einem Smartphone über eine App und ohne externe Anweisungen zu seinem Ziel kommen“, so Schönhaar. Auch Peter Keppler sieht durch Apps eine Vereinfachung der Usability: „Bei einem Smartphone habe ich eine große Auswahl an Apps, die genau für die jeweilige Anwendung perfekt angepasst wurden. Der Anwender sucht sich also zukünftig die für ihn passende App aus und startet einfach mit seiner Vision-Anwendung.“ Ein anderes Konzept ist, dass der Anwender eine einzige Software hat, die für alle Applikationen und Geräte ausgelegt ist. Dies sieht Vollrath als sinnvolle Alternative: „Wenn der Anwender nur eine einzige Software für alle seine Sensoren und 2D-/3D-Vision-Systeme verwenden kann, ist dies ein wichtiger Schritt für die Usability der Systeme.“ Auch bei Balluff wird der Weg hin zu einer einzigen Software für unterschiedliche Hardwareanforderungen forciert, so Schönhaar: „Ziel ist es, zukünftig (Vision-) Sensoren, 3D-Systeme und Bildverarbeitung über eine einzige Oberfläche zu bedienen.“

"OPC UA ist ein entscheidender Schritt, um Bildverarbeitung in der Automatisierungswelt weiter zu etablieren." Klaus Henning Noffz, Basler (Bild: TeDo Verlag GmbH)

„OPC UA ist ein entscheidender Schritt, um Bildverarbeitung in der Automatisierungswelt weiter zu etablieren.“ Klaus Henning Noffz, Basler (Bild: TeDo Verlag GmbH)

Macht KI die Bildverarbeitung einfacher?

Es stellt sich die Frage, inwieweit künstliche Intelligenz (KI) möglicherweise hilft, Bildverarbeitung einfacher zu machen. Peter Keppler ist überzeugt, dass „Machine Learning die Bildverarbeitung einfacher und zuverlässiger macht.“ Allerdings hat er Zweifel, ob durch KI die Systeme auch benutzerfreundlicher werden, wenn man dem Anwender die Systeme ohne entsprechende Beratung zur Verfügung stellt. „Ich muss den Anwender mit an Bord nehmen. Nur er kann z.B. definieren, welche Teile seiner Produktion gut oder schlecht sind,“ so Noffz. Christian Vollrath dagegen betont, dass neben dem zeitlichen Faktor durch das Trainieren der Algorithmen auch die Beschaffung der entsprechenden Bilder ein Problem sein könne. „Bei einer neuen Anlage ist beispielsweise meist noch kein Produkt vorhanden, wenn die Bildverarbeitung eingebaut wird, das heißt, ich habe noch keine entsprechenden Bilder und kann daher auch nicht meine KI vorab trainieren. Zudem müssen die Bilder oft noch (manuell) gelabelt werten, was Zeit kostet.“ Vor überzogenen Erwartungshaltungen beim Thema KI warnt auch Waldl: „Es braucht niemand zu glauben, dass eine Deep-Learning-Kamera plötzlich alle Fehler selber findet. Was aber mit KI deutlich besser funktionieren wird, ist die Erkennung von Anomalien und dies bereits mit relativ wenig Bildern.“ Mittlerweile gibt es auch, laut Waldl, immer mehr Hersteller, die Edge Controller mit KI-Funktionen anbieten. So werden intelligente Kameras mit integrierten KI-Anwendungen möglich. Für Keppler steht die Bildverarbeitung derzeit ganz im Zeichen der Zusammenführung verschiedener Technologien, wie Deep Learning, Embedded-Systeme, Cloud-Technologie, 5G usw. „Wenn es uns gelingt, alle diese Technologien zusammenzubringen, ist es zukünftig möglich, leistungsstarke und ganz genau zugeschnittene Subsysteme für spezielle Vision-Anwendungen zu entwickeln, die für die Anwender sehr einfach zu bedienen sind,“ so sein Fazit.

Seiten: 1 2 3 4Auf einer Seite lesen

TeDo Verlag GmbH

Das könnte Sie auch Interessieren