Embedded Vision für Machine Vision

Embedded Vision für Machine Vision

Embedded-Kameras mit eingebauter Bildoptimierung

Die meisten Embedded-Vision-Systeme basieren auf einfachen Kameramodulen, deren Bilder nahezu vollständig auf dem Host-Prozessor verarbeitet werden. In der PC-basierten Bildverarbeitung erfolgt dagegen ein Großteil der Bildverarbeitung bereits in der Kamera. Daher stellt sich nun die Frage, welche Vor- und Nachteile leistungsstärkere Kameras in Embedded-Systemen mit sich bringen würden?

 Embedded-Vision-Systemarchtitektur der Zukunft? Ein Embedded-Kameramodul nach dem Voreiner MachineVision-Kamera ist mit einem ISP-Prozessor ausgestattet. Anstelle eines FPGAs kommt ein propriet?res SoC zum Einsatz (Bild: Allied Vision Technologies GmbH)

Bild 1 | Embedded-Vision-Systemarchtitektur der Zukunft? Ein Embedded-Kameramodul nach dem Vorbild einer Machine-
Vision-Kamera ist mit einem ISP-Prozessor ausgestattet. Anstelle eines FPGAs kommt ein proprietäres SoC zum Einsatz. (Bild: Allied Vision Technologies GmbH)

Die industrielle Bildverarbeitung (Machine Vision) hat sich in den letzten 30 Jahren rasant entwickelt und inzwischen nahezu alle industriellen Anwendungsgebiete erschlossen. In den meisten Fällen wird sie zur lückenlosen Inspektion und Qualitätsprüfung von Produkten auf der Fertigungslinie eingesetzt. Bei stetig zunehmenden Taktzahlen und immer schnelleren Produktionsprozessen ist die Geschwindigkeit entscheidend, in der die Bildaufnahme und -auswertung stattfindet. Die Baugröße der Kamera spielt dagegen in einer fest installierten Industrieanlage meist eine untergeordnete Rolle. Die Kosten für die Kamera sind zwar wichtig, fallen aber im Verhältnis zu den Gesamtsystemkosten eher gering aus.

Machine-Vision-Architekturen

Die genannten Faktoren haben dazu geführt, dass Industriekameras immer leistungsstärker geworden sind, d.h. nicht nur Bildqualität und Bildrate haben zugenommen. Heutige Machine Vision Kameras haben zudem eine Vielzahl von Bildoptimierungsfunktionen an Bord, etwa für Farbkorrekturen, automatischen Weißabgleich oder Gain-Einstellung, Pixeldefektkorrektur und vieles mehr. Ziel ist es, dem Host-PC ein bereits auf die Bildauswertungsaufgabe optimiertes Bild zu liefern. Dieses wird z.B. auf das zu prüfende Objekt zugeschnitten sowie Helligkeit und Kontrast so eingestellt, dass die Kanten des Objekts von der Bildverarbeitungssoftware problemlos erkannt werden. Zudem wird die Bandbreite der Kameraschnittstelle optimal genutzt, da nur die notwendigen Bilddaten übertragen werden. Die Bildverarbeitungssoftware auf dem Host kann unmittelbar mit der Auswertung der Bilder beginnen, ohne vorher Bildkorrekturen vorzunehmen. Es lassen sich somit mehr Produkte innerhalb kürzerer Zeit und zuverlässiger prüfen und dadurch die Systemleistung optimieren. In einem typischen industriellen Bildverarbeitungssystem verteilt sich die Bildverarbeitung auf zwei bis drei Systemkomponenten:

  • In der Kamera selbst findet die beschriebene Vorverarbeitung der Bilder statt. Die Kamera besteht nicht nur aus einem Bildsensor und einer Schnittstelle. Sie ist außerdem mit einem FPGA ausgestattet, auf dem die Bilddaten unmittelbar nach dem Erfassen durch den Sensor und vor der Übertragung an den Host korrigiert und optimiert werden. Es handelt sich bei diesen Korrekturen um keine anwendungsspezifische Bildbearbeitung, im Unterschied zu einer Smart-Kamera, in der die Bildbearbeitung bereits für spezifische Anwendungen wie z.B. für die Gesichtserkennung oder Kantenfindung stattfindet. Der Systementwickler nutzt die vorhandenen Korrekturfunktionen ausschließlich dafür, das Bild für seine nachgelagerte Bildanalysesoftware zu optimieren.
  • Bei Kameraschnittstellen, die einen Framegrabber erfordern, können dort weitere Bildkorrekturen stattfinden.
  • Dem Host-Prozessor werden schlüsselfertige Bilddaten geliefert. Dort findet dann die anwendungsspezifische Bildverarbeitung statt (z.B. die Qualitätsprüfung von Bauteilen).

Embedded-Vision-Architekturen

Bild 2 | Typische Machine-Vision-Systemarchitektur. Ein Großteil der Bildverarbeitung erfolgt bereits in der Kamera. Baugröße und Kosten spielen eine untergeordnete Rolle. (Bild: Allied Vision Technologies GmbH)

Embedded Systeme gewinnen aufgrund der rapide steigenden Leistungsfähigkeit der Prozessoren immer mehr an Bedeutung. Inzwischen sind sie in der Lage, komplexere Bildverarbeitungsaufgaben zu übernehmen. Durch ihre kompakte Baugröße und die geringen Kosten sorgen sie dafür, dass Bildverarbeitung auch außerhalb der Fertigungsanlage in immer mehr Bereiche Einzug hält, z.B. im Auto, Smartphone oder der Gebäudeautomation. Embedded-Vision-Systeme unterliegen anderen Anforderungen als klassische Machine-Vision-Systeme. Oftmals sind hohe Bildraten nicht der entscheidende Faktor. Vielmehr sollen sie möglichst klein, kompakt und leicht sein. Ihr Stromverbrauch muss möglichst gering bleiben, zum einen weil sie oft mobil und batteriebetrieben sind, zum anderen weil aufgrund ihrer kompakten Bauweise eine zu hohe Leistungsaufnahme zur Erhitzung des Systems führen könnte. Dementsprechend gestalten sich auch die Anforderungen an Embedded Kameramodule. Sie sollen miniaturisiert sein und möglichst wenig Strom verbrauchen. Der Kostenfaktor ist wesentlich entscheidender, als bei einer Machine Vision Kamera, weil der Preis eines Kameramoduls im Verhältnis zu einem kostengünstigen Embedded Board viel schwerer ins Gewicht fällt. Daraus ergibt sich, dass die meisten Embedded-Vision-Systeme auf sehr kostengünstigen Kameramodulen basieren, die kaum mit einer Machine-Vision-Kamera vergleichbar sind. Sie reduzieren sich weitestgehend auf den Sensorchip und einer Schnittstelle, mit der dieser über eine sogenannte Sensor Bridge mit dem Host verbunden wird. An Bord solcher Module findet außer den Funktionen, die vom Sensorchip bereits unterstützt werden (z.B. Weißabgleich), so gut wie keine Bildverarbeitung statt. In einem Embedded Vision System findet die Bildverarbeitung also fast ausschließlich auf dem Prozessor (CPU) des Boards statt:

  • Bildkorrektur und Bildoptimierung erfolgen in der Sensor Bridge und dem Bildprozessor (Image Sensing Processor, ISP).
  • Weitere Bildverarbeitungsaufgaben können auf dem ISP und dem Grafikprozessor (GPU) stattfinden.
  • Die anwendungsspezifische Bildauswertung läuft auf dem Hauptprozessor.

Embedded-Kameras mit eingebauter Bildoptimierung

Bild 3 | Typische Embedded-Vision-Systemarchitektur: Die Systeme sind miniaturisiert und verbrauchen möglichst wenig Strom. Der Kostenfaktor ist wichtig. (Bild: Allied Vision Technologies GmbH)

Die Anforderungen an die Embedded Vision Systeme steigen mit der zunehmenden Vielfalt an Anwendungsaufgaben. Immer häufiger stoßen Embedded Kameramodule jedoch an ihre Grenzen. Könnten hier möglicherweise Kameramodule nach dem Vorbild von Machine-Vision-Kameras mehr Bildverarbeitungsintelligenz an Bord bieten? Allied Vision hat daher ein neues Kameraplattformkonzept entwickelt, das die Vorteile beider Systeme vereint. Die Grundidee besteht darin, ein Embedded-Kameramodul nach dem Vorbild einer Machine-Vision-Kamera mit einem ISP-Prozessor auszustatten. Anstelle eines FPGAs, das für Embedded-Systeme zu kostenaufwändig ist, kommt ein proprietäres System-on-Chip (SoC) zum Einsatz. Ähnlich wie bei der PC-basierten Bildverarbeitung, wird die Bildkorrektur und Bildoptimierung somit in die Kamera vorgelagert und der Host-Prozessor ausschließlich für die anwendungsspezifische Bildauswertung verwendet. Der Hauptvorteil einer solchen Systemarchitektur ist, dass die verfügbare CPU-Kapazität des Embedded Boards deutlich entlastet wird. Obwohl Embedded-Prozessoren immer leistungsfähiger werden, bleibt ihre Rechenleistung hinter der von vollwertigen PCs. Für Embedded-Entwickler bedeuten diese Leistungsgrenzen oft eine Herausforderung. Mit der freigewordenen CPU-Kapazität können sie anspruchsvollere Bildverarbeitungsaufgaben auf dem Host-Prozessor laufen lassen, die u.U. vorher nicht möglich gewesen wären bzw. sie nutzen diese CPU-Kapazität für andere Systemaufgaben. Obwohl Allied Visions 1er Produktreihe für Embedded-Systeme kostenoptimiert ist, hat diese zusätzliche Intelligenz im Vergleich zu einem Low-Cost Sensormodul ihren Preis. Dieser relativiert sich, wenn man die gesamten Systemkosten betrachtet: Wird die freigewordene CPU-Kapazität nicht gebraucht, kann ein günstigeres Board mit geringerer Systemleistung eingesetzt werden.

Themen:

| Fachartikel

Ausgabe:

inVISION 5 2017
Allied Vision Technologies GmbH
www.alliedvision.com

Das könnte Sie auch Interessieren