Happy Birthday

Wie haben sich die Aufgaben von Framegrabbern in den letzten Jahren verändert?

Pearce: In den letzten 30 Jahren gab es einige Meilensteine. Mitte der 90er Jahre z.B. die Einführung des PCI-Busses. Zuvor hatten Framegrabber tatsächlich Einzelbilder abgespeichert und dann langsam die aufgenommenen Videodaten über den damals sehr langsamen ISA Interface-Bus-Standard gestreamt. Sobald sich der PCI-Bus etabliert hatte, wurden Framegrabber zu wirklichen Echtzeit-Streaming-Geräten, ähnlich wie Netzwerkkarten. Der Begriff Framegrabber ist also mittlerweile eigentlich falsch. Die Fähigkeit, Videos in Echtzeit zu streamen, erlaubte neue Anwendungen. Der nächste wichtige Schritt, ebenfalls in den 90er Jahren, war die Einführung von Digitalkameras und das Aufkommen von Bildverarbeitungsstandards. Die AIA begann mit dem 16Bit-Parallelschnittstellenstandard, der 68-polige Stecker einsetzte, um dann einige Jahre später die v1.0 des Camera-Link-Standards einzuführen. Bei Machine Vision Standards gibt es zwei Trends. Der erste ist der Wechsel von parallelen Bussen zu superschnellen seriellen Busstandards, wie z.B. PCI Express in PCs oder CXP in der industriellen Bildverarbeitung. Der zweite Trend ist, dass Bildverarbeitungsstandards mittlerweile deutlich mehr abdecken. Der erste AIA-Standard definierte im Wesentlichen nur den Stecker, moderne Standards dagegen legen das gesamte Protokoll fest und sind eng im GenICam-Standard integriert.

Sie setzen stark auf CoaXPress. Wie beurteilen Sie andere Highspeed Lösungen wie z.B. nBase-T, 25GigE, USB3.1 oder CLHS?

„Wir glauben nicht,
dass CLHS die gleiche
Marktakzeptanz wie
CXP bekommen wird.“
Chris Beynon, Active Silicon (Bild: Active Silicon Ltd.)

Beynon: CXP ist zweifelsohne der am weitesten verbreitete Standard am oberen Ende des Marktes. Allerdings dominiert bei den meisten Vision-Anwendungen GigE Vision, so dass die Einführung von nBase-T und 25GigE gute Lösungen für Anwendungen mit mittlerer Geschwindigkeiten bieten. Natürlich ändert sich die Definition von schnell ständig. CXP wird bald doppelt so schnell sein, wie bei seiner Einführung. Die Verbraucherstandards steigen in ihrer Geschwindigkeit zwar genauso wie die Vision Standards, letztere werden jedoch im Spitzenbereich Verbraucherstandards immer übertreffen – nicht nur in Bezug auf Geschwindigkeit, sondern auch in Schlüsselbereichen wie Stromverbrauch, Benutzerfreundlichkeit usw. Der Unterschied zwischen den beiden Bereichen, der bereits seit 25 Jahren zu beobachten ist, wird wahrscheinlich weiterhin bleiben, das heißt. die Marktnische im High-End-Bereich, in der Nutzer auch bereit sind, extra für Premiumleistungen zu zahlen, wird somit weiterhin Bestand haben. Während sich unser Framegrabber-Geschäft auf CXP und CL konzentriert, setzten wir in unserem Embedded-Vision-Geschäft – welches fast die Hälfte unseres Umsatzes ausmacht – häufig auch andere Standards ein, wie z.B. USB3.1 oder GigE Vision. Wir glauben nicht, dass CLHS die gleiche Marktakzeptanz wie CXP bekommen wird. Es ist schade, dass CLHS den Begriff Camera Link im Namen trägt. Das hat für Verwirrung auf dem Markt gesorgt, denn CLHS ist nicht mit früheren CL-Versionen kompatibel.

Inzwischen können Vision-Aufgaben auch mit einem Raspberry Pi gelöst werden. Warum braucht es in zehn Jahren immer noch Machine-Vision-Lösungen?

Beynon: In zehn Jahren wird es viele neue Lösungen für die industrielle Bildverarbeitung geben, aber die Plattformen, auf denen sie dann laufen, enthalten die neuen Generationen von System-on-Chip-basierten (SoC) Geräten, wie z.B. einen Raspberry PI. Wir erwarten eine teilweise Migration von den heutigen PCs, zu kleineren, möglicherweise verteilten Geräten, die auf den technologischen Entwicklungen aus dem Consumer Bereich basieren, wie z.B. Smartphones. Für Embedded-Systeme in Applikationen mit langen Produktlebenszyklen, wie z.B. bei Medizinprodukten, ist der Einsatz von Consumer Boards dagegen unwahrscheinlich, aufgrund der Probleme mit langfristiger Lieferfähigkeit. Allerdings wird die zugrundeliegende Technologie, die verwendet wird, wie z.B. MultiCore-ARM-basierte SoC-Chips, höchstwahrscheinlich eingesetzt werden. Eines unserer Embedded-Vision-Systeme der neueren Generation basiert bereits auf dem Xilinx Zynq-System und nicht auf einem mobilen Intel-Chip.

Seiten: 1 2 3Auf einer Seite lesen

Active Silicon Ltd.

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Webinar Spectral Imaging

Webinar Spectral Imaging

Am 7. Mai findet um 14 Uhr das inVISION TechTalk Webinar ‚Spectral Imaging‘ statt. Dabei stellen Vision & Control (Tailored Optics and Lighting for Hyper- and Multispectral Imaging), Lucid Vision (Advanced sensing with latest SWIR and UV cameras) und Baumer (Inspect the invisible with powerful SWIR & UV Cameras) verschiedene Trends zu SWIR, UV und Hyperspectral Imaging vor.