Deep Learning mit Time-of-Flight-Sensorik für Einsteiger
 Mit der Deep Learning DS KI-Plattform von Data Spree können Echtzeitlösungen auch ohne jegliche Programmier- und Deep Learning Vorkenntnisse entwickelt werden. (Bild: Data Spree GmbH)

Mit der Deep Learning DS KI-Plattform von Data Spree können Echtzeitlösungen auch ohne jegliche Programmier- und Deep Learning Vorkenntnisse entwickelt werden. (Bild: Data Spree GmbH)

Eigene Deep Learning Lösung

In einer Beispielanwendung für die Detektion und Klassifikation von Früchten sieht man, wie man mit der 3D-Kamera und der Deep Learning DS KI-Plattform von Data Spree eine Echtzeitlösung entwickelt, ohne jegliche Programmier- und Deep Learning Vorkenntnisse. Durch die Tageslichttauglichkeit und die IP67 Schutzklasse der Kamera lässt sich diese Lösung auch direkt auf mobilen Arbeitsmaschinen in rauen Umgebungen einsetzen. Allgemein lässt sich der Arbeitsablauf für die Erstellung von Deep Learning Modellen in fünf Abschnitte unterteilen:

– Datenakquise (Aufnahme von Beispielbildern)

– Annotation (Anreichern mit Metadaten)

– Training (Optimieren des Deep Neural Networks)

– Deployment (Ausführen des Netzes auf der Zielhardware)

– Kontinuierliche Verbesserung des neuronalen Netzes durch neue Daten

Da diese Schritte zunächst nach einer großen Herausforderung klingen, wurde mit Deep Learning DS eine Plattform entwickelt, um es dem Anwender so leicht wie möglich zu machen, in kürzester Zeit seine eigene Deep-Learning-Lösung zu entwickeln:

Datenakquise: Zunächst müssen Bilder von den Früchten aufgenommen werden, welche später erkannt und klassifiziert werden sollen. Für diese Anwendung wurden ca. 500 Bilder von Bananen, Äpfeln und Birnen aufgenommen. Die Aufnahmesoftware erstellt 2-Kanal-Bilddaten aus der Graustufen-Intensitätsaufnahme und dem Tiefenbild, welches für jeden Pixel den Abstand in Millimetern enthält. Die Bilddaten werden direkt in die Deep Learning Plattform geladen.

Annotation: Anschließend werden die Daten mit Metadaten angereichert. Dazu werden manuell Boxen um die Früchte gezeichnet und die entsprechende Kategorie (Apfel, Birne etc.) zugeordnet. Damit wird festgelegt, was das neuronale Netz im folgenden Schritt lernen soll. Der Prozess kann bereits nach circa 100 manuell annotierten Bildern beschleunigt werden, indem ein initiales Deep Learning Modell Vorschläge für die weiteren Aufnahmen generiert, die der Anwender anschließend nur noch korrigiert.

Training: Sind alle 500 Bilder annotiert, erfolgt über wenige Mausklicks die Erstellung und das Training eines weiteren Modells. Abhängig von der Datenmenge und der Komplexität der Aufgabe dauert dieser Prozess zwischen wenigen Stunden und einem Tag. Während des Trainings wird die Erkennungsgenauigkeit zyklisch auf einem vorenthaltenem Testdatensatz geprüft, um die aktuelle Güte des Modells abzuschätzen. Sobald eine hinreichende Genauigkeit erreicht ist, läuft das Training noch etwas weiter, um die Robustheit der Erkennung weiter zu verbessern.

Deployment und Inferenz: Sobald das Training abgeschlossen ist, wird das fertig trainierte Modell heruntergeladen und direkt über die Ausführungssoftware Inference DS ausgeführt. Zahlreiche USB-, Netzwerk- und gängigen Industriekameras sowie die blaze ToF Kamera (inklusive entsprechender Vorverarbeitung) sind bereits vollständig integriert, sodass die Deep Learning Applikation direkt gestartet werden kann. Mit der zusätzlichen Tiefeninformation der ToF-Kamera können die detektierten Früchte auch dreidimensional im Raum verortet werden, um z.B. in Sortieranlagen die genaue Position an einen Roboter zu übergeben.

Seiten: 1 2Auf einer Seite lesen

https://data-spree.com/de/deep-learning-mit-time-of-flight-sensorik/

Das könnte Sie auch Interessieren

Bild: Kontron Europe GmbH
Bild: Kontron Europe GmbH
Democratizing AI

Democratizing AI

Der Einstieg in die AI fällt vielen Unternehmen noch schwer, nicht zuletzt wegen der komplexen Hardware-Auswahl. In einer AI-Workstation verbinden Robotron und Kontron nun zwei Lösungsansätze zur unkomplizierten Anwendung von Computer Vision. Die Workstation ermöglicht auch Einsteigern das Trainieren, Ausführen und Inferenz der Algorithmen für eine Vielzahl von Modellen und Frameworks.

Bild: IDS Imaging Development Systems GmbH
Bild: IDS Imaging Development Systems GmbH
Verpixelte Gesichter

Verpixelte Gesichter

Dort wo personenbezogene oder andere sensible Daten bei Computer Vision oder kamerabasierter Bildverarbeitung im Fokus stehen, spielt das Thema Datenschutz eine große Rolle. Abhilfe soll eine dezentrale Datenverarbeitung durch Edge Computing schaffen. Ohne die Privatsphäre einzelner zu verletzen, sollen prozessrelevante Informationen direkt im Gerät extrahiert oder sensible Bildbereiche unkenntlich gemacht werden, bevor Aufnahmen das Gerät verlassen und weiter verarbeitet werden.

Bild: Vision Components GmbH
Bild: Vision Components GmbH
OEM Stereo-Kamera

OEM Stereo-Kamera

Wie Entwickler ihre Produkte schneller an den Markt bringen, Kosten einsparen und Designrisiken minimieren können, hat Vision Components kürzlich mit dem VC Power SoM
gezeigt, einem FPGA-basierten Hardwarebeschleuniger für Embedded Vision.
Jetzt entwickelt das Unternehmen sein FPGA-Modul weiter und präsentiert die VC Stereo Cam für 3D- und Zweikamera-Anwendungen.

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige