Das Ende des Nischendaseins

„Zu meinem Erstaunen hat sich der Markt für Multispektral- und Hyperspektral-Lösungen im Laufe des vergangenen Jahres rasant gewandelt.“
Markus Schnitzlein, Chromasens (Bild: Chromasens GmbH)

Welche zukünftige Einsatzperspektiven sehen Sie für die von Ihnen entwickelten 12-kanaligen Multispektralkameras?

Schnitzlein: Zu meinem Erstaunen hat sich der Markt für Multispektral- und Hyperspektral-Lösungen im Laufe des vergangenen Jahres rasant gewandelt. War es in der Vergangenheit hauptsächlich die Druckindustrie, die derartige Systeme zum Beispiel bei der Inline- Farbmessung einsetzte, hat sich das Anwendungsspektrum inzwischen enorm vergrößert. Es reicht von der klassischen Materialprüfung bis hin zu modernen Umweltthemen wie der Abfallsortierung oder der Abgasuntersuchung mittels optischer Analyse. Eine wachsende Rolle spielen Spektralmessungen jenseits des sichtbaren Spektrums, beispielsweise im Infrarotbereich. Generell sind die Anforderungen an die Beleuchtung bei Farbmessungen besonders hoch. Wer multispektral Daten erfasst, muss auch multispektral beleuchten. Da LEDs typischerweise schmalbandig abstrahlen, ist es notwendig, verschiedenartige LEDs zu kombinieren oder ganz gezielt nur einzelne Frequenzbänder zu bestrahlen.

Intelligente Kameras und Embedded Vision Systeme, gewinnen zunehmend an Bedeutung. Wo kommen diese Systeme zum Einsatz?

Schnitzlein: Die immer weiter steigenden Anforderungen an Auflösung, Scan-Geschwindigkeit und/oder die Erfassung von Multi-Channel-Images erfordern immer schnellere Schnittstellen und Protokolle. Hier stoßen wir an technologische Grenzen, die nur umgangen werden können, indem mehr Rechenleistung in die Kameras integriert wird. Die Konzeption intelligenter Kameras stellt die Entwickler allerdings vor nicht unerhebliche Herausforderungen. Die Integration komplexer Elektronikkomponenten in immer kompaktere Gehäuse erfordert u.a. maßgeschneiderte Konzepte zur Wärmeableitung. Generell bietet die verteilte Vorverarbeitung der erfassten Daten in den eingesetzten Kameras deutliche Vorteile, da die zu übertragende Datenmenge und damit auch die Rechenbelastung des zentralen Bildverarbeitungssystems dadurch spürbar reduziert werden kann. Im Idealfall erfolgt die Beurteilung des aufgenommenen Bildes vollständig in der Kamera, und es werden keine Bilddaten, sondern nur ein Ergebnis an die zentrale Applikation übertragen. Ein Beispiel dafür ist eine Verkehrssystemlösung von Tattile. Die Kollegen haben ein intelligentes Kamerasystem für die Kennzeichenerkennung von Fahrzeugen entwickelt, bei dem die Bildauswertung komplett in der Kamera passiert und statt eines Fotos nur noch ein kurzer Datensatz mit dem erkannten Kennzeichen an den Zentralrechner übertragen wird.

Vor welchen Herausforderungen stehen die Entwickler von IBV-Komponenten und -Lösungen aktuell, und welche Produktinnovationen sind in den kommenden Jahren zu erwarten?

Schnitzlein: Neben den bereits genannten leistungsstarken intelligenten Kameras wird vor allem der Einsatz von künstlicher Intelligenz (KI) neue Trends in der IBV setzen. Ein Beispiel ist Deep Learning, ein Teilbereich des Machine Learnings. Deep Learning eignet sich für die IBV besonders gut, da hier üblicherweise große Datenmengen zur Verfügung stehen, aus denen sich Muster und Modelle ableiten lassen. Das Ergebnis sind IBV-Systeme, die wesentlich leichter adaptiert werden können und auch komplexe Zusammenhänge algorithmisch fassen können. Erste Bildverarbeitungslösungen, die auf Deep Learning Verfahren basieren, erwarte ich in einem Zeitraum von zwei bis drei Jahren.

Seiten: 1 2Auf einer Seite lesen

Thematik: inVISION 1 2018
Ausgabe:
Chromasens GmbH
www.lakesighttechnologies.com www.chromasens.de

Das könnte Sie auch Interessieren

Bild: Fraunhofer-Institut IOF
Bild: Fraunhofer-Institut IOF
Mehr Tiefe mit Farben

Mehr Tiefe mit Farben

Bei der Inline-Qualitätskontrolle geht es meist darum, schnell und hochauflösend 3D-Oberflächenstrukturen zu erfassen. Die Schärfentiefe ist dabei eine grundlegende Begrenzung. Die Fokuslage lässt sich mit einem Objektiv mit motorisiertem Fokus verschieben – oder mit einer mehrfarbigen Beleuchtung. Letzteres ist schneller, wie ein Projekt des Fraunhofer IOF zeigt.

Bild: Edmund Optics GmbH
Bild: Edmund Optics GmbH
Webinar: Optics & Lenses

Webinar: Optics & Lenses

Am 21. September um 14 Uhr (MEZ) findet das inVISION TechTalks Webinar ‚Optics & Lenses‘ statt. Kowa Optimed, Edmund Optics und Vision & Control präsentieren in drei 20-minütigen Vorträgen interessante Neuigkeiten über Objektive, Optik und worauf man beim Umgang damit achten muss.