3D-Kameras

3D-Kameras

Eine 3D-Kamera liefert als Ausgangsdaten Bildpunkte mit 3D-Koordinaten. Wesentlicher Unterschied zur 3D-Bildverarbeitung mit 2D-Kameras ist, dass keine aufwendige Kalibrierung des Gesamtsystems durchgeführt werden muss. Alle kalibrierungsrelevanten Komponenten sind bereits im Gerät angeordnet und werkseitig kalibriert.
Wichtig für 3D-Kameras ist eine große räumliche, zeitliche und Helligkeitsauflösung des Bildsensors. Daher werden vorwiegend hochdynamische CMOS-Bildsensoren (HDR) verwendet. Zum Einsatz kommen schnelle 2D-Bildsensoren (teilweise mit spezialisierter Zusatzausrüstung) sowie 3D-Bildsensoren. Einige 3D-Kameras benötigen für ihre Funktion besondere Beleuchtungstechnologien, um die Tiefeninformation zu generieren. Jüngere Entwicklungen von direkt 3D-fähiger Bildsensoren machten die Geräteklasse 3D-Kamera möglich:

  • • Laufzeitmessung des Lichtes (PMD)
  • • Lichtfeldtheorie (Helligkeit und Richtung der Lichtstrahlen beschreiben ein Bild)

In Folge wurden weitere, auch in der herkömmlichen 3D-Bildverarbeitung mit 2D-Bildsensoren eingesetzte Technologien miniaturisiert, integriert und in 3D-Kameras angewendet:

  • • Photometrisches Stereo (Kamera mit zwei fest montierten 2D-Kameraköpfen in einem Gehäuse)
  • • Triangulation (Lichtschnitt, Streifenprojektion)
  • • Interferometrie (Nutzung der Welleneigenschaften von weißem Licht, Weißlichtinterferometrie)
  • • Shape from Shading (Tiefeninformation aus Schattenbildung)

Die Berechnung der Tiefendaten aus den Bildrohdaten ist rechenaufwendig. Daher findet eine Bildvorverarbeitung häufig schon auf dem Bildsensor der 3D-Kamera statt. So kann z.B. der Linienschwerpunkt von Laserlinien subpixelgenau bereits auf dem Bildsensorchip berechnet werden. Die endgültige Berechnung der 3D-Bildpunktkoordinaten erfolgt typischerweise mit spezialisierter 3D-Kamerahardware. Die erzeugten Bilddaten liegen unreduziert als Punktewolke vor. Daher werden zur Übertragung an den Bildverarbeitungs-PC schnelle Kamera-Interfaces wie CoaXPress, Camera Link HS oder 10GigE-Vision eingesetzt. Die Auswertung der generierten 3D-Daten erfolgt auf einem Rechner mit 3D-fähiger Bildverarbeitungssoftware. Derzeitige Entwicklungen (Integration, Miniaturisierung) lassen erwarten, dass es in Zukunft auch intelligente 3D-Kameras geben wird, die bereits vollständige 3D-Prüfungen direkt in der Kamera durchführen und nur noch Ergebnisse liefern.

Vision & Control GmbH
www.vision-academy.org

Das könnte Sie auch Interessieren

Bild: Rauscher GmbH
Bild: Rauscher GmbH
CPU-Entlastung

CPU-Entlastung

Mit der Netzwerkkarte GevIQ löst Matrox Imaging (Vertrieb Rauscher) die aktuellen technischen Nachteile von Highend-GigE-Vision-Systemen. Die grundlegende Idee ist, die CPU durch eine zusätzliche Karte – ähnlich wie bei einem Framegrabber – zu entlasten und das De-Paketizing der Bilder ohne CPU-Einsatz vorzunehmen.