Ideen einfach umsetzen


Smarte, vernetzbare Serienprodukte

Zur Entwicklung von 3D-Vision-Serienprodukten bietet Bluetechnix kommerzielle 3D-Sensormodule in einer kompakten Baugröße (50x55x36mm) an. Die Hardware ist für einen Temperaturbereich zwischen -40 bis +85°C ausgelegt und robust gegen elektromagnetische Störungen. Das Herzstück ist ein Multicore-DSP mit reserviertem ersten Core zur Abstraktion der ToF-Messtechnik. Der Zweite steht dem Entwickler für seine individuelle Standalone-Embedded-Applikation zur Verfügung. Diese programmiert er in der LabView-Entwicklungsumgebung. Das ZBrain-SDK – ein Toolkit für ‚LabView auf Mikroprozessoren‘ – generiert daraus mittels ANSI-C-Code-Generator und schlankem Realtime-Kernel eine EXE, die aus dem Flash direkt in die Applikation bootet. Der 3D-Sensor lässt sich mittels Ethernet oder RS485 in bestehende Infrastrukturen einbinden und verfügt neben einer RS232-Schnittstelle über einen Trigger und Digital-E/As.

Einsatzgebiete

Dank der ToF-Technologie kann zuverlässig zwischen realen Objekten und Spiegelungen oder Schatten unterschieden werden. Daher eignet sie sich speziell für Anwendungen in der Sicherheit und Überwachung. Detektieren von Hindernissen oder Prüfen des Sicherheitsabstands bei Roboterarmen sind typische Anwendungsfälle aus der Robotik. Beim präzisen Vermessen bewegter Objekte kommt eine Kombination der 3D- und 2D-Bildverarbeitung zum Einsatz. Beispiel Nummernschilderkennung: Die Aufgabe des 3D-Algorithmus ist es, die exakte Position (ROI) des Schildes innerhalb der ‚Fahrzeug-Punktwolke‘ zu finden. Anschließend wird über das Graustufenbild mittels OCR die Autonummer gewonnen. Die Robustheit der 3D-Sensordaten ist speziell beim Zählen von Personenströmen von Vorteil. Hier besteht der Clou im Detektieren einzelner 3D-Kopfgeometrien über das Tiefenbild. Ein massiv robusteres Verfahren gegenüber 2D, vor allem bei ineinanderverschlungenen Paaren oder Gedränge in der Rushhour. Das Tracken und Zählen geschieht schließlich auf der Basis einer Matrix, die über die Zeit mehrere Aufnahmen speichert. Der Sensor sendet dann per Ethernet nur noch das Ergebnis an den Leitrechner: die gezählten Personen pro Richtung.

Vom Fingerschnippen bis zum Augenzwinkern

Das Erkennen menschlicher Gesten gehört zweifellos zu den anspruchsvollen Anwendungen. Hier findet ein unmittelbares Rendezvous zwischen der realen und der virtuellen Welt statt, mit der eMotion des Menschen im Mittelpunkt! Dies ermöglicht eine komplett neue Qualität und Erfahrung von Benutzerinteraktion, ähnlich wie das Smartphone unser Kommunikationsverhalten verändert hat. Beim Beispiel im Bild 1 liefert der 3D-Sensor das Tiefen- und Graustufenbild des Anwenders. In LabView wird aus der Punktwolke die Position und Lage der Hände berechnet, der digitale ‚Handschuh‘ sowie das entsprechende Hand-Koordinatensystem gerendert und mit dem Graustufenbild überlagert. Das Ergebnis sind die Hände des Anwenders, visualisiert in Echtzeit im ‚Cyberspace‘. Ob mit diesen Informationen eine neue GUI-Schnittstelle oder die Steuerung eines Roboterarms realisiert wird, ist der Kreativität des Entwicklers überlassen. Von der Körperhaltung und Gebärdensprache und Hand- sowie Fingergestik über Kopf- und Lippenbewegung bis zum Augenzwinkern entgehen dem 3D-Sensor und der LabViewAnwendung nichts.

Seiten: 1 2Auf einer Seite lesen

Themen:

| Fachartikel

Ausgabe:

inVISION 1 2014
Schmid Elektronik AG

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Webinar Spectral Imaging

Webinar Spectral Imaging

Am 7. Mai findet um 14 Uhr das inVISION TechTalk Webinar ‚Spectral Imaging‘ statt. Dabei stellen Vision & Control (Tailored Optics and Lighting for Hyper- and Multispectral Imaging), Lucid Vision (Advanced sensing with latest SWIR and UV cameras) und Baumer (Inspect the invisible with powerful SWIR & UV Cameras) verschiedene Trends zu SWIR, UV und Hyperspectral Imaging vor.