Schneller am Ziel

Wann und warum lohnt sich der Einsatz von KI-Vision?
In der Praxis lässt sich meist einfach entscheiden, ob KI das beste Verfahren für die jeweilige Aufgabe der optischen Qualitätssicherung ist. Je schwieriger die Gut-/Schlecht-Unterscheidung, desto mehr brilliert sie. Richtig durchgeführte KI-Projekte sparen Produktionskosten oder können sogar den Markteintritt um Monate vorverlagern.
Bild 1 | Bei der KI-Software AI.see werden neue Produktbilder mit annotierten Fehlern dem KI-Modell im laufenden Betrieb beigefügt. Eingriffe durch die Entwickler und mehrfacher Austausch des KI-Modells in der Produktion sind dabei nicht erforderlich.
Bild 1 | Bei der KI-Software AI.see werden neue Produktbilder mit annotierten Fehlern dem KI-Modell im laufenden Betrieb beigefügt. Eingriffe durch die Entwickler und mehrfacher Austausch des KI-Modells in der Produktion sind dabei nicht erforderlich. (©Gorodenkoff/shutterstock.com / elunic AG)

Optische Qualitätssicherung mit KI entfaltet ihre Stärken dort, wo konventionelle regelbasierte Bildverarbeitung an ihre Grenzen stößt. Das betrifft alle Fehler, die mit einprogrammierten Regeln schwer oder nicht zu erfassen sind. Typische Beispiele dafür sind Verschmutzungen, Risse und Kratzer – also Fehler, die keinen linearen Regeln folgen. Sie können so viele Formen annehmen, dass ihre Programmierung praktisch nicht möglich ist. Erschwerend für traditionelle Vision-Systeme wirken auch Faktoren wie Reflexionen, unterschiedliche Oberflächengüten oder die notwendige Flexibilität für eine chaotische Fertigung. Können solche Fehler- und Störgrößen in einer Produktion auftreten, ist eine optische Qualitätssicherung mit Machine Learning (ML) meist ein effizientes Mittel der Wahl, denn eine ML-Software muss nicht jede einzelne Fehlermöglichkeit kennen. Sie erfasst stattdessen das Prinzip des Fehlers. Deswegen wird sie zum Beispiel Lunker und Risse auch in unterschiedlichen Formen und Ausdehnungen erkennen. Diese Fehlererkennung wird im Verlauf des Anlageneinsatzes immer besser, bis sie die Anforderungen erfüllt und schließlich übertrifft.

Zeit sparen

Vor dem Start eines ML-Projekts führt elunic in der Regel eine Machbarkeitsstudie durch. Bei der Entscheidung für oder gegen ein KI-Projekt werden die Verantwortlichen auch die Projektdauer beachten. Bei Computer Vision wird jede einzelne Fehlermöglichkeit einprogrammiert oder parametriert. Die robuste Etablierung dauert Monate, oft ein halbes Jahr oder länger – abhängig von der Applikationskomplexität. Gerade bei hohen Produktionsgeschwindigkeiten wie z.B. in der Coil-Fertigung gibt es aber Hürden in der Sichtprüfung und schlussfolgernd in der Programmierung des Bildeinzuges. Dann kann die Qualitätsoptimierung erst beginnen, wenn auch die Bildakquise abgeschlossen ist, um entstehende Bildfehler in die Regeln als Varianz einfließen zu lassen. Dagegen sind KI-Projekte in der Regel deutlich kürzer (Start der Produktivsetzung), da nicht jeder Fehler einzeln programmiert wird.

Bild 2 | AI.see erkennt auch Lunker und Risse in unterschiedlichen Formen und Ausdehnungen
Bild 2 | AI.see erkennt auch Lunker und Risse in unterschiedlichen Formen und Ausdehnungen. (elunic AG)

Projektstart mit Bildern und Parametern

Der Projektstart beginnt mit der Konfiguration des Lernmodells. Dazu gehört die Bestimmung der Hyperparameter, die das Verhalten des Lernalgorithmus oder des KI-Modells steuern. Die KI-Software AI.see zum Beispiel berechnet anhand von Beispielbildern automatisch die Hyperparameter, mit denen die Software am schnellsten arbeitet. So können die Entwickler schnell mit dem Training des Modells beginnen. In anderen Fällen wählen Experten die Parameter aus und erproben sie an Beispielbildern. Dafür wird die KI mit einer bedarfsgerechten Anzahl von Bildern außerhalb der Produktion trainiert. Die Anzahl korreliert mit vorhandener Bildgüte und gewünschter Genauigkeit. Bei einfach zu beurteilenden Produkten genügen oft schon wenige IO- und NIO-Bilder für die erste Trainingsphase. Die Bilder werden meist in einer laufenden Produktion angefertigt, vielleicht von einem Vision-System. Bei den Bildern wird eine Annotation durchgeführt, d.h. an den abgebildeten Teilen markiert ein Prüfer die fehlerhaften Stellen. Die ‚Augmentation‘ ist eine von elunic verfeinerte Methode, um die Anzahl der annotierten Bilder zu steigern. Dafür wird beispielsweise ein vorhandenes Fehlerbild in Perspektive, Spiegelung und Kontrast variiert. Die veränderte Darstellung des gleichen Prüfobjekts stellt für die ML-Software eine neue Aufgabe dar. Diese vorbereitende Phase endet, wenn die Erkennungsrate hoch genug ist für den Einsatz in der Produktion. Das ist mit AI.see meist nach vier Wochen der Fall.

Schnell zur KI-Prüfung in der Produktion

Bei der folgenden Erprobung in der Produktion führt der Operator weiterhin von jedem als fehlerhaft eingestuften Teil eine Gut/-Schlecht-Prüfung durch. Jedes dabei generierte und annotierte Foto erweitert den Bildbestand und trägt zur Verbesserung der Erkennungsrate bei. Das weitere Vorgehen unterscheidet sich je nach verwendeter Software. Meist wird das Einlernen im Projekt in mehreren Phasen durchgeführt. Nachdem der Operator bei einer bestimmten Anzahl von Prüfobjekten eine manuelle Gut-/Schlecht-Erkennung durchgeführt hat, erweitern die Entwickler das Lernmodell und generieren eine neue Version davon. Dieser Zyklus wird wiederholt, bis die Software mit dem Modell eine befriedigende Erkennungsrate erreicht. Bei AI.see werden dagegen die neuen Produktbilder mit annotierten Fehlern dem KI-Modell im laufenden Betrieb beigefügt. Eingriffe durch die Entwickler und mehrfacher Austausch des KI-Modells in der Produktion sind nicht erforderlich. Bei diesem Vorgehen erreicht das Projekt schneller die angestrebte Erkennungsrate.

Das könnte Sie auch Interessieren