Ursachenerkennung per ML

ML-Modelle mit bis zu 25x besserer Leistung ausführen
Machine Learning (ML) und Computer Vision erkennen schnell und genau Defekte, selbst am Edge. Die Implementierung solcher Lösungen und das Training der Modelle sind jedoch komplex und zeitaufwändig. Einfacher gelingt dies mit dem Dienst Lookout for Vision von Amazon Web Services.
Bild 1 | Der Dienst Amazon SageMaker Neo optimiert automatisch ML-Modelle für Inferenz in Cloud-Instanzen und Edge-Geräten, damit diese schneller und ohne Genauigkeitsverlust ausgeführt werden können. (Bild: Amazon Web Services)

Das Training von ML-Modellen für die visuelle Inspektion von Produkten und Prozessen setzt große Datenmengen und viel Rechenleistung voraus. Zudem braucht es spezielle Werkzeuge, um die Daten vorzubereiten, etwa Bilder so zu taggen damit beim Training klar erkennbar ist, ob es sich um eine Anomalie handelt oder nicht. Hier setzt AWS mit Amazon SageMaker an. Die ML-Services-Suite bietet eine Vielzahl an ML-Funktionen, die Anwender bei der Vorbereitung und Erstellung sowie dem Training hochwertiger ML-Modelle unterstützen. Damit lässt sich jeder Schritt der ML-Entwicklung beschleunigen: von der Datenaufbereitung über die Erkennung statistischer Verzerrungen bis hin zum Monitoring der laufenden Modelle.

Leistung bis zu 25x verbessern

Besonders optimierte ML-Modelle sind bei Anwendungen für Edge-Hardware gefragt, da diese auf unterschiedlichen Hardware-Plattformen ausgeführt werden. Entwickler brauchen bei Edge-Geräten mit begrenzter Rechenleistung und begrenztem Speicher oft Monate, um ein Modell von Hand zu optimieren und Prognosen daraus abzuleiten. Abhilfe schafft Amazon SageMaker Neo. Der Service optimiert automatisch ML-Modelle für Inferenz in Cloud-Instanzen und Edge-Geräten, damit diese schneller und ohne Genauigkeitsverlust ausgeführt werden können. Anwender starten mit einem ML-Modell, das bereits mit DarkNet, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite, ONNX oder XGBoost erstellt und in Amazon SageMaker oder anderswo geschult wurde. Anschließend wählen sie eine Hardwareplattform aus, bei der es sich um eine SageMaker-Hosting-Instanz oder ein Edge-Gerät handeln kann, das auf Prozessoren von Ambarella, Apple, ARM, Intel, MediaTek, Nvidia, NXP, Qualcomm, RockChip, Texas Instruments oder Xilinx basiert. Mit nur einem Klick optimiert SageMaker Neo das trainierte Modell und kompiliert es dann zu einer ausführbaren Datei. Der Compiler verwendet ein Modell für ML, um die Leistungsoptimierungen anzuwenden, mit denen die beste verfügbare Leistung für das Modell auf der Cloud-Instanz oder dem Edge-Gerät ermittelt wird. Anschließend stellen Anwender das Modell als SageMaker-Endpunkt oder auf unterstützten Edge-Geräten bereit und beginnen mit Prognosen.

Bild 2 | Mittels zusätzlicher Bilder kann bei Amazon Lookout for Vision die Genauigkeit der Anomalieerkennung ständig verbessert werden.
Bild 2 | Mittels zusätzlicher Bilder kann bei Amazon Lookout for Vision die Genauigkeit der Anomalieerkennung ständig verbessert werden. (Bild: Amazon Web Services)

Nutzung wird stundenweise abgerechnet

Um auch mit wenig ML-Erfahrung eine visuelle Qualitätskontrolle aufbauen zu können, kommt Amazon Lookout for Vision ins Spiel. Der neue Dienst analysiert Bilder anhand von Computer Vision (CV) und ausgefeilten ML-Funktionen. Die kostengünstige Lösung kann Tausende von Bildern pro Stunde verarbeiten. Durch das Few-shot-learning-Verfahren ist sie in der Lage, bereits mit 30 Basisbildern ein Modell zu trainieren, das Anomalien automatisch identifiziert. Ob Kamerawinkel oder Beleuchtung – Amazon Lookout for Vision erkennt auch alle Abweichungen, die durch Veränderungen der Arbeitsumgebung entstehen. Die Kunden können Feedback zu den Ergebnissen geben – etwa ob eine Anomalie korrekt identifiziert wurde. Der Dienst trainiert das zugrundeliegende Modell dann automatisch weiter und verbessert es kontinuierlich. Amazon Lookout for Vision erfordert keine Vorabverpflichtung oder Mindestgebühr, sondern wird stundenweise nach der tatsächlichen Nutzung abgerechnet. So hat der schwedische Lebensmittelhersteller Dafgards den Käsebelag seiner Pizzen früher mithilfe maschineller Bildverarbeitung überprüft. Fehler auf neuen Pizzavarianten mit mehreren Belägen konnte das System allerdings nicht erkennen. Mithilfe von Amazon Lookout for Vision wurde der Inspektionsprozess so skaliert, dass alle Pizzavarianten automatisch erkannt werden. Mittlerweile setzt Dafgards das CV-gestützte Verfahren auch bei Hamburgern und Quiches ein.

ML-Modelle für Bewegtbilder

Ein Dienst, mit dem sich ML-Modelle auch bei Bewegtbildern am Edge ausführen lassen, ist AWS Panorama. Die Appliance eignet sich für CV-Anwendungen mit geringen Latenzzeiten und begrenzter Internet-Bandbreite. Dadurch werden IP-Kameras CV-fähig und können Überwachungs- und Prüftätigkeiten automatisieren, die bislang nur von Menschen erledigt werden konnten. Auch mit SageMaker Neo optimierte Modelle werden mithilfe von AWS Panorama direkt am Edge ausgeführt. Amazon Lookout for Vision bietet Industrie- und Fertigungskunden gemeinsam mit Amazon Lookout for Equipment, Amazon Monitron und AWS Panorama die derzeit umfassendste Suite von Cloud-to-Edge-Services für ML im industriellen Einsatz. Um auch die Ursache für Fehler und Abweichungen in der Produktion zu erkennen, steht AWS IoT SiteWise zur Verfügung. Der Dienst analysiert und visualisiert Daten von Maschinen und Anlagen. Durch die Kombination mit ML kann somit auf die Gründe für Qualitätsprobleme zurückgeschlossen werden. Damit steht Fertigungsunternehmen eine breite Palette an Tools für die Fehlererkennung und Ursachenermittlung zur Verfügung – auch für Anwender, die bisher keine ML-Erfahrung mitbringen.

Amazon Web Services
https://aws.amazon.com/de/

Das könnte Sie auch Interessieren