Ideen einfach umsetzen

Ideen einfach umsetzen

Highspeed-3D-Vision-Sensor mit LabView-Anbindung

3D-Vision-Sensoren auf der Basis von Laufzeitmessung bieten neue Möglichkeiten und Lösungswege bei komplexen, räumlichen Messaufgaben. Auch unter Time-of-Flight (ToF) bekannt, enthält bei diesem optischen Messprinzip jeder einzelne Pixel neben dem Graustufenwert zusätzlich eine Tiefeninformation und damit den exakten Abstand zum Objekt. Eine neue Klasse kleinster 3D-Hochgeschwindigkeitssensoren lässt sich jetzt nahtlos in die grafische Entwicklungsumgebung LabView einbinden.
Dort nutzt der Anwendungsentwickler mächtige Mathematik- und Analysefunktionen sowie 2D/3D-Bildverarbeitungsbibliotheken fürs Rapid Prototyping und die anschließende Produktentwicklung. Das Ergebnis sind vernetzbare, smarte 3D-Visionmessgeräte zum Überwachen, Detektieren, Zählen, Messen, Steuern – realisiert im Bruchteil der heute üblichen Entwicklungszeit.

Messung unabhängig vom Umgebungslicht

Bei herkömmlichen Verfahren wie Stereoaufnahmen oder Lasertriangulation muss die Distanz zum Objekt mit komplexen, zeitaufwendigen Algorithmen berechnet werden. Im ToF-Verfahren wird sie Pixel für Pixel auf Hardware-Level gemessen. Das geschieht in Echtzeit und simultan bis zu 160Hz für die gesamte Bildauflösung von 120×160 Pixeln. Daraus resultiert eine dynamische 3D-Punktwolke mit exakten X/Y/Z-Koordinaten für jeden einzelnen Datenpunkt. Typische Sichtfelder sind 90° bei einem Messbereich zwischen 0,5…5m und einer Auflösung im mm-Bereich. Neben der Distanzinformation steht zeitgleich ein Graustufen-Amplitudenbild zur Verfügung. Das Messprinzip gleicht dem Radar. Nur wird anstelle des Schalls moduliertes Licht in einem Frequenzbereich zwischen 5 und 30MHz in die Umgebung gesendet, dort von Objekten reflektiert und im Sensor wieder erfasst. Aus der Phasenverschiebung zwischen gesendetem und empfangenem Licht, zusammen mit bekannter Modulationsfrequenz und der Lichtgeschwindigkeit lässt sich die exakte Distanz zwischen Sensor und Objekt berechnen. Die Wellenlänge der IR-Beleuchtung liegt bei 850nm. Die Messung ist also unabhängig vom Umgebungslicht und funktioniert damit auch in völliger Dunkelheit.

Rapid Prototyping von 3D-Vision

Die generierte Punktwolke einer Umgebung steht nun in der LabView-Umgebung als mathematische Matrix zur Verfügung. Der nächste Schritt besteht darin, 3D-Vision-Ideen in einen funktionierenden Prototypen umzusetzen. Die LabView ‚Komfortzone‘ soll dabei bewusst den Spieltrieb des Entwicklers wecken und ihm so den Blick über den Tellerrand ermöglichen. Dazu stehen Werkzeuge in Form von 2D- und 3D-Bildverarbeitungsfunktionen zur Verfügung. Typische Funktionen sind Filtern, Suchen nach Primitiven und deren räumliches Vermessen, 3D-Matching mit CAD-Schablonen, 3D-Transformationen oder das Kombinieren mehrerer Punktwolken zu einem Gesamtbild. Darüber hinaus lassen sich dank LabViews C/C++ Schnittstelle freie 3D-Vision-Bibliotheken, z.B. PCL (Point-of-Cloud Library) oder OpenCV (Open Source Computer Vision) nutzen. Sogar als M-Scripts geschriebene Bildverarbeitungsalgorithmen finden ihren Weg per Copy&Paste ins LabView-Blockschaltbild.

Smarte, vernetzbare Serienprodukte

Zur Entwicklung von 3D-Vision-Serienprodukten bietet Bluetechnix kommerzielle 3D-Sensormodule in einer kompakten Baugröße (50x55x36mm) an. Die Hardware ist für einen Temperaturbereich zwischen -40 bis +85°C ausgelegt und robust gegen elektromagnetische Störungen. Das Herzstück ist ein Multicore-DSP mit reserviertem ersten Core zur Abstraktion der ToF-Messtechnik. Der Zweite steht dem Entwickler für seine individuelle Standalone-Embedded-Applikation zur Verfügung. Diese programmiert er in der LabView-Entwicklungsumgebung. Das ZBrain-SDK – ein Toolkit für ‚LabView auf Mikroprozessoren‘ – generiert daraus mittels ANSI-C-Code-Generator und schlankem Realtime-Kernel eine EXE, die aus dem Flash direkt in die Applikation bootet. Der 3D-Sensor lässt sich mittels Ethernet oder RS485 in bestehende Infrastrukturen einbinden und verfügt neben einer RS232-Schnittstelle über einen Trigger und Digital-E/As.

Einsatzgebiete

Dank der ToF-Technologie kann zuverlässig zwischen realen Objekten und Spiegelungen oder Schatten unterschieden werden. Daher eignet sie sich speziell für Anwendungen in der Sicherheit und Überwachung. Detektieren von Hindernissen oder Prüfen des Sicherheitsabstands bei Roboterarmen sind typische Anwendungsfälle aus der Robotik. Beim präzisen Vermessen bewegter Objekte kommt eine Kombination der 3D- und 2D-Bildverarbeitung zum Einsatz. Beispiel Nummernschilderkennung: Die Aufgabe des 3D-Algorithmus ist es, die exakte Position (ROI) des Schildes innerhalb der ‚Fahrzeug-Punktwolke‘ zu finden. Anschließend wird über das Graustufenbild mittels OCR die Autonummer gewonnen. Die Robustheit der 3D-Sensordaten ist speziell beim Zählen von Personenströmen von Vorteil. Hier besteht der Clou im Detektieren einzelner 3D-Kopfgeometrien über das Tiefenbild. Ein massiv robusteres Verfahren gegenüber 2D, vor allem bei ineinanderverschlungenen Paaren oder Gedränge in der Rushhour. Das Tracken und Zählen geschieht schließlich auf der Basis einer Matrix, die über die Zeit mehrere Aufnahmen speichert. Der Sensor sendet dann per Ethernet nur noch das Ergebnis an den Leitrechner: die gezählten Personen pro Richtung.

Vom Fingerschnippen bis zum Augenzwinkern

Das Erkennen menschlicher Gesten gehört zweifellos zu den anspruchsvollen Anwendungen. Hier findet ein unmittelbares Rendezvous zwischen der realen und der virtuellen Welt statt, mit der eMotion des Menschen im Mittelpunkt! Dies ermöglicht eine komplett neue Qualität und Erfahrung von Benutzerinteraktion, ähnlich wie das Smartphone unser Kommunikationsverhalten verändert hat. Beim Beispiel im Bild 1 liefert der 3D-Sensor das Tiefen- und Graustufenbild des Anwenders. In LabView wird aus der Punktwolke die Position und Lage der Hände berechnet, der digitale ‚Handschuh‘ sowie das entsprechende Hand-Koordinatensystem gerendert und mit dem Graustufenbild überlagert. Das Ergebnis sind die Hände des Anwenders, visualisiert in Echtzeit im ‚Cyberspace‘. Ob mit diesen Informationen eine neue GUI-Schnittstelle oder die Steuerung eines Roboterarms realisiert wird, ist der Kreativität des Entwicklers überlassen. Von der Körperhaltung und Gebärdensprache und Hand- sowie Fingergestik über Kopf- und Lippenbewegung bis zum Augenzwinkern entgehen dem 3D-Sensor und der LabViewAnwendung nichts.

Themen:

| Fachartikel

Ausgabe:

inVISION 1 2014
Schmid Elektronik AG

Das könnte Sie auch Interessieren

Bild: LMI Technologies GmbH
Bild: LMI Technologies GmbH
Smart 3D Coaxial Line Confocal Sensors

Smart 3D Coaxial Line Confocal Sensors

LMI Technologies new Gocator 4000 series introduces coaxial line confocal sensor technology to provide high-speed, high-resolution, and versatile 3D inline inspection performance with angular range (Max. slope angle up to +/-85°). The sensors have 1,920 points/profile for shadow-free 3D measurement and inspection, resolutions up to 1.9µm, a FoV up to 5.0mm and speeds up to 16kHz.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Qualitativ gut

Qualitativ gut

Viel war im Vorfeld der Messe darüber gerätselt worden, wie die Control dieses Jahr ohne zahlreiche große Aussteller laufen würde. Mit 475 Aussteller in zwei Hallen – davon 38% aus dem Ausland – und 13.149 Fachbesuchern überraschend gut. Anbei einige der Messe-Highlight im Überblick.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Robot Vision Webinar

Robot Vision Webinar

Am Dienstag den 28. Mai findet ab 14 Uhr das inVISION TechTalks Webinar ‚Robot Vision‘ statt. Dort stellen IDS (Machine Vision for Robotics – Technologies & Applications) und Roboception (Intelligent 3D robot vision plattform for end-users and distributors).

Bild: EMVA
Bild: EMVA
EMVA 1288 Standard Online Training

EMVA 1288 Standard Online Training

Am 18. Juni sowie am 3. Dezember findet ein dreitägiger Online-Kurs zur Norm 1288 der European Machine Vision Association (EMVA) statt. Ziel des Trainingskurses ist u.a. die vertiefte Kenntnis über die Grundlagen der neuen Version 4.0 sowie das Sammeln von praktischen Erfahrungen.

Bild: Mahr GmbH
Bild: Mahr GmbH
Mahr Innovation Days 2024

Mahr Innovation Days 2024

Am 12. bis 13. Juni findet in Göttingen bei Mahr die Innovation Days 2024 statt. Dabei stellt die Firma zahlreiche Neuheiten zur Oberflächenmessung und Messtechnik vor und gibt an beiden Tagen in zahlreichen Vorträgen einen Überblick über aktuelle Trends und Produkte.