Ursachenerkennung per ML

ML-Modelle mit bis zu 25x besserer Leistung ausführen
Machine Learning (ML) und Computer Vision erkennen schnell und genau Defekte, selbst am Edge. Die Implementierung solcher Lösungen und das Training der Modelle sind jedoch komplex und zeitaufwändig. Einfacher gelingt dies mit dem Dienst Lookout for Vision von Amazon Web Services.
Bild 1 | Der Dienst Amazon SageMaker Neo optimiert automatisch ML-Modelle für Inferenz in Cloud-Instanzen und Edge-Geräten, damit diese schneller und ohne Genauigkeitsverlust ausgeführt werden können. (Bild: Amazon Web Services)

Das Training von ML-Modellen für die visuelle Inspektion von Produkten und Prozessen setzt große Datenmengen und viel Rechenleistung voraus. Zudem braucht es spezielle Werkzeuge, um die Daten vorzubereiten, etwa Bilder so zu taggen damit beim Training klar erkennbar ist, ob es sich um eine Anomalie handelt oder nicht. Hier setzt AWS mit Amazon SageMaker an. Die ML-Services-Suite bietet eine Vielzahl an ML-Funktionen, die Anwender bei der Vorbereitung und Erstellung sowie dem Training hochwertiger ML-Modelle unterstützen. Damit lässt sich jeder Schritt der ML-Entwicklung beschleunigen: von der Datenaufbereitung über die Erkennung statistischer Verzerrungen bis hin zum Monitoring der laufenden Modelle.

Leistung bis zu 25x verbessern

Besonders optimierte ML-Modelle sind bei Anwendungen für Edge-Hardware gefragt, da diese auf unterschiedlichen Hardware-Plattformen ausgeführt werden. Entwickler brauchen bei Edge-Geräten mit begrenzter Rechenleistung und begrenztem Speicher oft Monate, um ein Modell von Hand zu optimieren und Prognosen daraus abzuleiten. Abhilfe schafft Amazon SageMaker Neo. Der Service optimiert automatisch ML-Modelle für Inferenz in Cloud-Instanzen und Edge-Geräten, damit diese schneller und ohne Genauigkeitsverlust ausgeführt werden können. Anwender starten mit einem ML-Modell, das bereits mit DarkNet, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite, ONNX oder XGBoost erstellt und in Amazon SageMaker oder anderswo geschult wurde. Anschließend wählen sie eine Hardwareplattform aus, bei der es sich um eine SageMaker-Hosting-Instanz oder ein Edge-Gerät handeln kann, das auf Prozessoren von Ambarella, Apple, ARM, Intel, MediaTek, Nvidia, NXP, Qualcomm, RockChip, Texas Instruments oder Xilinx basiert. Mit nur einem Klick optimiert SageMaker Neo das trainierte Modell und kompiliert es dann zu einer ausführbaren Datei. Der Compiler verwendet ein Modell für ML, um die Leistungsoptimierungen anzuwenden, mit denen die beste verfügbare Leistung für das Modell auf der Cloud-Instanz oder dem Edge-Gerät ermittelt wird. Anschließend stellen Anwender das Modell als SageMaker-Endpunkt oder auf unterstützten Edge-Geräten bereit und beginnen mit Prognosen.

Seiten: 1 2Auf einer Seite lesen

Amazon Web Services
https://aws.amazon.com/de/

Das könnte Sie auch Interessieren