Grundlagen der Bildanalyse

Grundlagen der Bildanalyse

Bildanalyse für höhere Produktqualität

Bildanalyse und Bildverarbeitung zielen beide darauf ab, Informationen aus digitalen Bildern zu gewinnen. Der Unterschied liegt darin, auf welche Objekte oder Teile sie angewandt werden und welche Art von Informationen gewonnen wird. Bildbearbeitung wird bei beiden Varianten verwendet, das bedeutet Berechnungen, die Eingangsbilder modifizieren, um bestimmte Bildelemente hervorzuheben. Bildbearbeitung wird z.B. genutzt, um Abweichungen bei der Beleuchtung auszugleichen und Kanten von Objekten zu betonen.
Bildverarbeitung wird vor allem dazu eingesetzt, Bauteile (wie Bolzen, Schrauben usw.) zu lokalisieren, zu messen und zu kontrollieren. Diese weisen einheitliche Formen und definierte Kanten auf und können so präzise ausgemessen werden. Messergebnisse außerhalb bestimmter Werte weisen dabei auf defekte Teile hin. Der Einsatzbereich der Bildanalyse besteht darin, vorwiegend natürliche, unbehandelte Teile und Muster zu messen. Anwendungen umfassen die Klassifizierung und das Zählen biologischer Zellen sowie die Charakterisierung von Partikeln, Texturen und Schaum. Diese ‚Teile‘ können in ihrer Form stark variieren und besitzen schlecht definierte Kanten. Meist sind nur einige allgemeine Eigenschaften der Objekte bekannt. In einer vergrößerten Ansicht von Metallkörnern ist z.B. nur bekannt, dass die Korngrenzen eine unterschiedliche Intensität besitzen und dass die Korngröße eine beschränkte Bandbreite und Ausrichtung aufweist. Die Form des Korns ist allerdings nicht bekannt.

Segmentierung

Der erste Schritt der Bildanalyse besteht in der Segmentierung, d.h. Objekte oder Teile werden voneinander und vom Bildhintergrund abgegrenzt. Auf Ihrem Schreibtisch nehmen Sie verschiedene Objekte (Stifte, Telefone…) als unterschiedlich wahr. Auf einem digitalen Bild Ihres Schreibtisches überschneidet sich die Intensität der Objekte und der Oberfläche. Daher ist eine Segmentierung schwierig. Unser Gehirn setzt enorme neuronale Berechnungen und ein umfassendes Wissen über das Aussehen von Objekten ein, diese sind jedoch für ein kommerzielles Bildanalysesystem nicht praktikabel. Um die Segmentierung einfacher zu gestalten, können physische Methoden genutzt werden, welche die Intensität oder Farbunterschiede zwischen Objekten und deren Hintergründen verstärken. So sorgt eine gleichmäßige Beleuchtung für eine verlässlichere Segmentierung, indem sie durch Lichtvariationen bedingte Intensitätsunterschiede beseitigt. Bei biologischen Proben sorgt eine Färbung für mehr Kontrast und unterschiedliche Farben bei verschiedenen Zelltypen. Ziel ist es, Objekte mit einer simplen Intensitäts- oder Farbschwelle zu segmentieren. Rauschunterdrückung und komplexere Segmentierungsmethoden sind jedoch oft notwendig.

Morphologische Vorgänge

Werden bei der Bildverarbeitung Abmessungen ermittelt, um die Bildauflösung hochpräzise zu gestalten, sollten die Bildverarbeitungsprozesse diese Abmessung nicht verändern. Bei der Bildanalyse werden oft morphologische Bildverarbeitungsvorgänge verwendet, die Formen und Abmessungen von Objekten, basierend auf angrenzenden Pixelwerten, anpassen. Präzise Vermessung ist bei natürlichen Objekten nicht entscheidend und morphologische Vorgänge sorgen für Rauschunterdrückung und Segmentierung von Objekten und deren Hintergründen. Zwei häufig verwendete morphologische Vorgänge sind Erosion und Dilatation. Angenommen, die analysierten Objekte sind heller als der Bildhintergrund und besitzen eine bekannte Durchschnittsgröße. Bei der Erosion werden Pixel um ein Objekt herum ‚abgezogen‘, einander berührende Objekte getrennt und helle Flecken entfernt. Bei der Dilatation werden Pixel um Objekte herum hinzugefügt, um Lücken zwischen Objekten zu füllen und dunkle Flecken zu entfernen. Sie können die Größe für diese Vorgänge festlegen, um Flecken bis zu einer bestimmten Größe zu entfernen. Die Kombination der beiden Vorgänge stellt die öffnenden und schließenden Vorgänge dar, die auch zur Rauschreduzierung dienen, jedoch die Abmessungen des Objekts besser beibehalten. Nachdem das Bild bereinigt wurde, können Objekte im Bild mittels einer Schwelle segmentiert werden. Diese markiert Pixel oberhalb eines festgelegten Wertes als Objekt und Pixel unterhalb dieses Wertes als Hintergrund (oder umgekehrt). Das daraus resultierende binäre s/w-Bild umfasst oft isolierte Pixelgruppen, die keine Objekte sind oder Objekte, die einander berühren. Hier können erneut morphologische Vorgänge wie die Erosion verwendet werden, um Rauschen zu entfernen und Objekte zu trennen.

Wasserscheidenpixeln

Komplexere Segmentierungsalgorithmen nutzen mehr Informationen als nur Objekt- und Hintergrundintensität. Sie können zur Unterstützung der Segmentierung Objektkanten verwenden, bei denen sich die Intensität schnell ändert, oder auch sich langsam ändernde Werte aus dem Inneren eines Objekts nutzen. Sind Form und Größe des Objekts vorher bekannt, kann auch dies zur Verbesserung der Segmentierung beitragen. Die Wasserscheidentransformation ist ein interessantes Beispiel für einen komplexen Segmentierungsalgorithmus: Angenommen, die Innenbereiche von Objekten sind dunkler als der Hintergrund oder ihre Kanten und betrachtet man außerdem das Bild als topografische Karte, sind in dieser Topografie Objekte Becken. In Anlehnung an geografische Wasserscheiden treffen die Becken bei ‚Wasserscheidenpixeln‘ aufeinander und diese Grenzen segmentieren dann die Objekte. Wird jedes Becken im Bild ‚gefüllt‘, bis sein ‚Wasser‘ auf das eines anderen Beckens trifft, werden die Punkte, an denen sie aufeinandertreffen, zu Wasserscheidenpixeln. Dieser Algorithmus wird in der Bildanalyse für Aufgaben wie das Auslesen von DNS-Proben und die Größeneinteilung von Metallkörnern verwendet. Indem verschiedene Objekte mit unterschiedlichen Farben gekennzeichnet werden, wird die Segmentierung sichtbar.

Blobanalyse

Segmentierung ergibt oft ein binäres Bild, in dem helle Pixel Objekte und dunkle Pixel den Hintergrund darstellen (oder umgekehrt). In diesem Fall kann die Segmentierung einfach durch die Anzeige des binären Bildes sichtbar gemacht werden. Die Pixel, die Objekte darstellen, werden mittels Konnektivitätsanalyse in Objektbereichen gesammelt. Die Konnektivitätsanalyse gruppiert segmentierte Pixel in Objektbereiche. Diese Gruppierung basiert auf angrenzenden Pixeln, die einander berühren oder die gleiche Segmentkennzeichnung aufweisen. Im Fall der Wasserscheide ist dies die Farbe. Die Bereiche werden manchmal als Blobs bezeichnet und zum jetzigen Zeitpunkt ist nur bekannt, dass ihre Pixel die gleiche Segmentkennzeichnung besitzen und einander berühren. Der nächste Schritt umfasst die Messung von Blobs, auch Blobanalyse genannt. Die Blobs werden gemessen und indexiert und für jeden Blob werden die Messwerte aufgezeichnet: die Anzahl der Pixel im Blob, sein Schwerpunkt und das Begrenzungsrechteck (das Rechteck, das den Blob knapp umschließt). Basierend auf dem Bereich und den Abmessungen eines Blobs können viele andere Messmethoden angewendet werden. Der Feret-Durchmesser ist der längste Abstand zwischen zwei Punkten im Umfang des Blobs, z.B. ein Außentaster in einem festgelegten Winkel. Messmethoden, bei denen Entfernungen entlang einer Kurve verwendet werden, können kompliziert sein. Kurvendistanzen sind in digitalen Bildern schlecht definiert, besonders bei Bildern mit binären Intensitätswerten (s/w). Stellen Sie sich den Umfang eines kreisförmigen Blobs vor. Wenn Sie diesen Blob in einem digitalen Bild betrachten, erkennen Sie, dass sich die Kanten in wesentlichen Pixelschritten verändern und nicht etwa glatt verlaufen. Wenn Sie die Entfernungen der Kanten dieser Schritte addieren, erhalten Sie einen Umfang, der größer ausfällt, als der Umfang, der durch den Durchmesser des Kreises vorausberechnet wurde. Kurvenmessungen können verbessert werden, indem Informationen aus dem ursprünglichen Graustufenbild verwendet werden. Bei Messwerten, die auf Entfernungen entlang einer Kurve basieren, ist jedoch immer noch Vorsicht geboten. Die Wahl der Messmethode hängt davon ab, was Sie erreichen möchten. Soll z.B. die Verteilung der Formen elliptischer Partikel ermittelt werden, kann die Kreisförmigkeit des Blobs gemessen werden.

Klassifizierung

Der letzte Schritt bei der Bildanalyse ist für gewöhnlich die Klassifizierung. Dabei werden Blobs einer Objektklasse zugeordnet, basierend auf den Maßen des Blobs. Angenommen, es soll eine Kultur biologischer Zellen angelegt werden: Die Stabilität des Vorgangs wird überwacht, indem man lebende und tote Zellen in einer Probe zählt (Dies ist möglich, da lebende Zellen größer und kreisförmiger sind als tote). Die Klassifizierung ist meist unvollständig aufgrund von Objektabweichungen, z.B. lebende und tote Zellen, deren Größenbereiche sich überlappen. Hier muss der Aufwand einer inkorrekten Klassifizierung eingerechnet werden und, falls erforderlich, müssen weitere Messungen durchgeführt werden, um die Verlässlichkeit der Klassifizierung zu verbessern. In der Nahrungsmittelproduktion, z.B. in Bäckereien oder Milchverarbeitungsanlagen, wird der Pegel der Schimmelsporen in der Luft überwacht, indem Teller mit Nährstofflösung in den Verarbeitungsbereichen aufgestellt werden. Die Sporen landen auf der Nährstofflösung und wachsen in kreisförmigen Kolonien. Die Anzahl, Größe und Form dieser Kolonien ergeben die Werte der Sporendichte in den Verarbeitungsbereichen. Eine hohe Sporendichte erfordert Korrekturmaßnahmen, wie eine Reinigung mit Desinfektionsmittel oder das Austauschen der Außenluftfilter. Zuerst wird ein Graustufenbild einiger Kolonien geglättet, um die nachfolgende Verarbeitung stabiler zu gestalten. Mittels Erosion und Dilatation (morphologische Öffnung) wird das Hintergrundrauschen entfernt und einige Kolonien, die sich überschneiden, werden getrennt. Die Segmentierung in Blobs erfolgt mittels einer Schwelle. Beachten Sie, dass die Beleuchtung der Probe auf der rechten Seite etwas schwächer wird. Dies sollte korrigiert werden, bevor eine Schwelle verwendet wird. Dann wird eine Konnektivitätsanalyse der Blobs durchgeführt und die Blobs, die kleiner als die erwartete Größe der Kolonie ausfallen, werden entfernt. Die Sporen wachsen kreisförmig von dem Punkt aus, an dem sie landen. Bei Sporen, die sich dicht beieinander befinden, tritt überlappendes Wachstum auf. Eine Abstandskarte gibt die Distanz an, die zwischen jedem Pixel und der nächsten Kante des Blob liegt. Spitzenwerte in der Abstandskarte befinden sich nahe des Zentrums eines Wachstumskreises. So können sich überlappende Kolonien gezählt werden.

Fazit

Die Bildanalyse ist ein unverzichtbares Werkzeug zur Qualitätskontrolle, besonders wenn das Produkt, nicht präzise gefertigt ist oder hohe natürliche Variabilität besitzt. Sie wird oft in der Bildverarbeitung eingesetzt, um Produktfehler wie Kratzer oder Flecken zu ermitteln, die nicht im Vorhinein exakt bestimmt werden können.

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Webinar Spectral Imaging

Webinar Spectral Imaging

Am 7. Mai findet um 14 Uhr das inVISION TechTalk Webinar ‚Spectral Imaging‘ statt. Dabei stellen Vision & Control (Tailored Optics and Lighting for Hyper- and Multispectral Imaging), Lucid Vision (Advanced sensing with latest SWIR and UV cameras) und Baumer (Inspect the invisible with powerful SWIR & UV Cameras) verschiedene Trends zu SWIR, UV und Hyperspectral Imaging vor.