Standardisierte optische Bewertung von Oberflächen per Algorithmus

Reflexanalyse

Wie in vielen Bereichen möchte man auch in der Qualitätssicherung von Oberflächen eine normierte Beschreibung der Produkte als Maßeinheit definieren, um individuelle Fehlerquellen zu vermeiden. Dank solino ergibt sich jetzt die Möglichkeit einen Oberflächeneindruck aufgrund von Erfahrungswerten zu kalibrieren und dadurch einen Standard zu setzen. Dank zusätzlicher Big Data Analysen ergibt sich für diese Problematik nun ein komplett neuer Ansatz. Da der Algorithmus über eine Reflexanalyse nicht die Bilder auswertet, sondern die Streuergebnisse des Lichts auf der gesamten Probe in einem Pixel speichert, ergeben sich pro Sensorelement eine Vielzahl an Oberflächeninformationen. Multipliziert mit allen Pixeln einer Kamera und den variierenden Lichtstrahlen ergibt der so entstandene Datensatz eine individuelle Signatur der aufgenommen Oberfläche. Mit dem neuen Ansatz wird Photometric Stereo Imaging komplett neu in einem umfassenden Datensatz der Oberfläche prozessiert, der mittels Reflexanalyse erzeugt wird. Je nach Probe ergeben sich spezielle physikalische Notwendigkeiten in der Reflexgebung. So haben Kratzer nur einen begrenzten Streuvektor, der über die Beleuchtungsanordnung abgebildet werden muss. Der Streueffekt hat aber zusätzlich noch eine vergrößernde Wirkung. So ist es möglich, mit dieser Methode die laterale Auflösung signifikant zu steigern und somit auch kleinste Fehler auf großen Oberflächen zu erkennen. Bei spiegelnden Oberflächen sind beispielsweise die Unterschiede zwischen den Proben nur sehr gering. Hier wird über entsprechende Kalibrierungsmechanismen die Sensitivität optimiert und feinste Anomalien detektiert.

Fazit

Der solino Algorithmus erzeugt für jeden Objektpunkt eine individuelle Digitalsignatur, deren Auswertung je nach Anforderung erfolgt. Es ist möglich Schriften, Kratzer, Fehlstellen, Farbunterschiede, usw. aus dem Datensatz zu extrahieren und wieder zu Bildern zusammenzusetzen. Es kann auch ein optimiertes virtuelles Bild, wie in modernen Smartphones bereits realisiert, ausgeben werden, um dieses Bild dann für eine traditionelle Weiterverarbeitung zu verwenden. Da nicht nur Bilder, sondern auch Reflexe zur Bilderzeugung herangezogen werden, ist die Wahrscheinlichkeit alle Strukturen, Fehler oder Anomalien abgebildet zu bekommen, fast bei 100 Prozent. Durch die hohe Anzahl an Informationen, die in einem Datensatz gespeichert sind – und die weit über die einer normalen Bildaufnahme hinaus gehen – kann man nun über entsprechende Klassifizierungsschritte für eine spezielle Probe, die Kriterien der Bewertung komplett neu ordnen, da der Algorithmus Anomalien erkennt, die bisher noch in keiner Spezifikation oder Norm festgelegt sind. Allerdings bedarf jede Applikation einer Neuausrichtung der Beschreibung von Oberflächen und die Akzeptanz, dass der Algorithmus hier neue – möglicherweise sogar bessere und weniger anfällige – Lösungen präsentiert. Der Software die letzte Entscheidung zu überlassen, ob ein Produkt fehlerhaft ist, auch wenn vorhandene und gewohnte Verfahren das nicht belegen, wird zwar noch dauern, aber die Reise dorthin hat begonnen.

Seiten: 1 2Auf einer Seite lesen

Themen:

| Fachartikel

Ausgabe:

inVISION 2 2019
Opto GmbH

Das könnte Sie auch Interessieren