Inline-3D-Messung mit chromatischer Schärfentiefeerweiterung

Mehr Tiefe mit Farben

Bei der Inline-Qualitätskontrolle geht es meist darum, schnell und hochauflösend 3D-Oberflächenstrukturen zu erfassen. Die Schärfentiefe ist dabei eine grundlegende Begrenzung. Die Fokuslage lässt sich mit einem Objektiv mit motorisiertem Fokus verschieben - oder mit einer mehrfarbigen Beleuchtung. Letzteres ist schneller, wie ein Projekt des Fraunhofer IOF zeigt.
Bild 1 | Schnelle 3D-Aufnahme einer Elektronik-Platine. Die Ausschnitte in der Mitte entsprechen zwei verschiedenen Fokuslagen.
Bild 1 | Schnelle 3D-Aufnahme einer Elektronik-Platine. Die Ausschnitte in der Mitte entsprechen zwei verschiedenen Fokuslagen.Bild: Fraunhofer-Institut IOF

Die Aufgabe ist eigentlich einfach: Während der Fertigung sollen Objekte im Zentimeterbereich und darunter in 3D erfasst werden. Die Streifenprojektion unter Verwendung einer Kamera und eines aktiven Projektors ist hier ein etabliertes Messverfahren. Für die Qualitätssicherung muss die Auflösung im unteren Mikrometerbereich sein, der Aufwand gering und die Geschwindigkeit möglichst groß. Bei einem Messfeld von 150x100mm², einem mittleren Objektabstand von 330mm und einer gewünschten Auflösung von 0,05mm (zehn Linienpaare pro mm), wird schnell klar, dass eineMesstiefe größer 20mm nicht mit einem konventionellen Objektiv zu erreichen ist. Das Problem ist die Schärfentiefe. Rein physikalisch ist die nötige Auflösung nur wenige Millimeter vor und hinter der Fokusebene der Optik zu erreichen.

Eine gängige Lösung aus der Fotografie ist Fokus-Stacking. Mit 80ms Schaltzeit sind Autofokusobjektive aber recht langsam für Inline-Anwendungen, eine Flüssiglinse dagegen meist zu ungenau. Eine Arbeitsgruppe des Fraunhofer IOF und Docter Optics hat in einem BMBF-Projekt für diese Anwendungen eine Alternative entwickelt. Der Grundgedanke dabei ist, dass jede Wellenlänge hinter einer Linse eine eigene Fokuslage hat. Ein großer Teil der technischen Optik beschäftigt sich mit der Frage, wie diese chromatischen Aberrationen minimiert werden können. Man kann das Problem aber auch als Chance sehen und die Fokuslage verändern, indem man die Wellenlänge wechselt. Mit einem geeigneten Optikdesign lassen sich damit zwei Fokuslagen, also zwei scharfe Bereiche, aus zwei Beleuchtungsfarben erzeugen.

Bild 2 | Die Schärfentiefenbereiche für blau (455 nm) und grün (520 nm) wurden über die Modulationstransferfunktion bestimmt (links). Aus der 3D-Vermessung eines Prüfkeils (rechts) lässt sich die Schärfentiefe eines 3D-Sensors charakterisieren.
Bild 2 | Die Schärfentiefenbereiche für blau (455 nm) und grün (520 nm) wurden über die Modulationstransferfunktion bestimmt (links). Aus der 3D-Vermessung eines Prüfkeils (rechts) lässt sich die Schärfentiefe eines 3D-Sensors charakterisieren.Bild: Fraunhofer-Institut IOF

Chromatisches Fokus-Stacking

Bild 2 zeigt den Verlauf der Schärfentiefe für zwei verschiedene Wellenlängen: blau (455nm) und grün (520nm). Beide Bereiche ergänzen sich, d.h. insgesamt wächst der Bereich mit der nötigen Schärfe von 13mm auf etwa 25mm. Dabei ist das Emissionsspektrum der Farblichtquellen relevant und muss zum Optikdesign passen. Für die konkrete Messung wurde eine Ximea Kamera mit 5.120×3.980 Pixeln verwendet. Um 3D-Daten mit einer 2D-Kamera zu erhalten, werden pro Farbe jeweils vier verschiedene Muster auf die Werkstückoberfläche projiziert. Mit dieser strukturierten Beleuchtung können in einem kalibrierten Aufbau jedem Bildpunkt eineindeutig 3D-Koordinaten zugeordnet werden. Die farbigen Muster werden mit einem digitalen RGB-Projektor von Texas Instruments erzeugt.

Neues Verfahren 5x schneller

Nachdem die nötige Schärfentiefe gegeben ist, bleibt die Frage der maximalen Geschwindigkeit. Die Kamera benötigt 5,5ms (180Hz) für eine Aufnahme. Bei vier Mustern pro Farbe müssen acht Bilder für einen 3D-Datensatz aufgenommen werden. Bei Vernachlässigung der Schaltzeiten der LEDs ergibt sich eine Aufnahmezeit von 8×5,5ms = 44ms für eine 3D-Messung. Zum Vergleich wurde derselbe Versuch mit einem Objektiv mit motorisiertem Fokus durchgeführt, wo 2x80ms für die Verschiebung der Fokuslage um 10mm zu addieren wären. Das neue Verfahren ist also fünf Mal so schnell wie der konventionelle Ansatz. Das chromatische Fokus-Stacking ermöglicht in diesem Fall eine 3D-Aufnahmerate von 20 Hertz mit je über 20 Millionen 3D-Messpunkten. Die Detailschärfe bei der Aufnahme wurde mit einem Keil geprüft (Bild 2 rechts), dessen Spitze eine nahezu scharfe Kante bildet. Hiermit wurde die 3D-Schärfentiefe von größer 20mm verifiziert.

Das Verfahren lässt sich vielseitig anwenden. Bild 1 zeigt die 3D-Aufnahme einer Elektronikplatine. Dort ist die Höhe und Position der Teile ein Qualitätskriterium. Ganz ähnlich lässt sich das Verfahren auch bei biometrischen Vermessungen oder in der Mensch-Maschine-Kommunikation einsetzen. Die Adaption auf mehr und andere Wellenlängen ist denkbar. Das neue Verfahren erreicht eine Abbildungsqualität, die mit der eines Objektivs mit motorisiertem Fokus vergleichbar ist, in einer deutlich kürzeren Zeit und ohne bewegliche Linsen. Die hier diskutierten Ergebnisse der technischen Grundlagenuntersuchung wurden inzwischen in einen Prototyp für einen Kunden umgesetzt.

Das könnte Sie auch Interessieren

Bild: Basler AG
Bild: Basler AG
Details bei 80m/min

Details bei 80m/min

Bei der Herstellung von Batteriezellen ist eine hohe Qualität in allen Prozessschritten entscheidend, um den Materialausschuss zu reduzieren. Digitale Bildverarbeitungslösungen von Basler eröffnen Möglichkeiten, auch kleinste Defekte bei der Elektrodenbeschichtung zuverlässig zu erkennen.

Bild: Vision Components
Bild: Vision Components
Eingebettet

Eingebettet

Eingebettete Bildverarbeitungssysteme sind hochintegrierte Single Board Computer, die zusammen mit Kameratechnik ein Vision System ergeben, das nicht der klassischen komponentenbasierten PC-Technik und -struktur entspricht. Derartig spezialisierte Embedded Vision Systeme sind kompakter, kostengünstiger, energiesparender, oft auch leistungsfähiger und auf ihre Arbeitsumgebung angepasst.

Bild: Mercedes-Benz Group AG
Bild: Mercedes-Benz Group AG
Kurzzeit-Röntgen

Kurzzeit-Röntgen

Zusammen mit dem Fraunhofer EMI hat Mercedes-Benz den weltweit ersten Röntgencrash mit einem realen Pkw durchgeführt. Mit der Kurzzeit-Röntgentechnologie lassen sich hochdynamische innere Deformationsvorgänge mit bis zu 1.000fps darstellen, was die Technologiedemonstration in der EMI-Forschungscrashanlage bei Freiburg gezeigt hat. Bisher unsichtbare Verformungen und ihre exakten Abläufe werden so transparent.

Bild: ©Ryan/stock.adobe.com
Bild: ©Ryan/stock.adobe.com
Potenziale des Quantencomputings für die Bildverarbeitung

Potenziale des Quantencomputings für die Bildverarbeitung

Das Versprechen des Quantencomputings, komplexe Probleme mit bisher unerreichter Geschwindigkeit zu lösen, eröffnet neue Horizonte in zahlreichen Bereichen. Auch in der Bildverarbeitung könnten die Prinzipien der Quantenmechanik und deren Anwendung in Quantenalgorithmen zu signifikanten Fortschritten führen. Doch während die theoretischen Grundlagen vielversprechend sind, steht die praktische Umsetzung noch vor einigen Herausforderungen.