Wo liegen derzeit (noch) die Probleme beim Deep Learning?

Wo liegen derzeit (noch) die Probleme beim Deep Learning?

Derzeit fehlt Anwendern meist noch die Erfahrung, welcher der zahlreichen KI-Lösungen für ihre Aufgabenstellung die Richtige ist. Daher hat inVISION bei Cubemos, EvoTegra, MVTec und Ruhlamat nachgefragt, worauf man bei der Auswahl der richtigen KI-Lösung achten sollte.

inVISION: Wo liegen die Unterschiede zwischen den verschiedenen Deep Learning Tools?

Tobias Manthey (EvoTegra): Für uns hängt die Auswahl von den folgenden Kriterien ab: welche Modelle werden unterstützt und welche Integrationsmöglichkeiten gibt es für den professionellen Einsatz (C++, TensorRT). Grundsätzlich muss man beachten, dass Open Source Deep Learning Frameworks aus der Forschung kommen und für die Forschung angedacht sind, d.h. Stabilität, Übertragbarkeit auf reale Anwendungen und Bedienbarkeit sind keine Kriterien für die Entwicklung. Die meisten Open Source Deep Learning Frameworks stellen im Prinzip Anwendungen im Alpha Status dar.

Dr. Christopher Schweubel (Cubemos): Wir nutzen primär TensorFlow und PyTorch. Beides sind gute Frameworks um neuronale Netze zu trainieren und auf der Zielhardware zu implementieren. Die Zielhardware bestimmt meist, welches Framework wir verwenden, jedoch wird die Interoperabilität immer besser.

Mario Bohnacker (MVTec): Wenn man die verschiedenen Deep Learning (DL) Produkte vergleicht, stellt man fest, dass sie sich in ihrer Performance hinsichtlich der reinen Klassifikationsergebnisse oftmals gar nicht allzu sehr unterscheiden. Allerdings gibt es einen immensen Unterschied bei den DL-Produktmerkmalen, wenn man sich nicht nur das reine Klassifikationsergebnis ansieht. Ein Beispiel hierfür ist, wie DL-Algorithmen in industrielle Applikationen integriert bzw. wie schnell neue DL-Methodiken mit bestehender BV-Algorithmik kombiniert werden können? Ein weiterer Aspekt ist, wie die DL-Funktionalität für die Anwendungserstellung nutzbar gemacht wird (Programmieren vs. Konfigurieren), sowie ob zwischen verschiedenen Open-Source-Tools hin und her gewechselt werden muss, oder ob es sich um eine Gesamtlösung aus einer Hand handelt. Letzteres bringt eine gewisse Nachhaltigkeit und Langzeitverfügbarkeit mit sich. Bisher werden für DL-Anwendungen hauptsächlich GPUs eingesetzt. Es besteht jedoch auch eine Nachfrage zum Einsatz von DL auf IPCs, die keine Grafikkarte haben oder auf Arm-basierten Systemen. Der Markt für spezifische DL-Hardware ist derzeit sehr schnelllebig und ausdifferenziert, weshalb wir aktuell an einer generischen Möglichkeit arbeiten, Hardware-Beschleuniger zukünftig schnell in Halcon nutzbar zu machen.

Florian Weihard (Ruhlamat): The various DL tools can be mapped on two axes – complexity versus flexibility. With a high degree of flexibility comes greater complexity, and hence requires a specialized skillset of a data scientist. With low complexity comes some rigidity in applications or unsuitability or inaccuracies in a model that is developed. There are DL tools – mainly ’no-code‘ model training environments – that provide an extremely simple user interface that can train a very generic model. This results in the pitfall that the model that is trained is not particularly useful for its actual application. In case of industrial applications, it is always more helpful to have a model that is trained for a specific purpose rather than a generic model. Our EaglAI uses models that were initially developed for identifying features in satellite imagery, to do defect detection on injection moulded parts. This is because the two applications have a similarity in that they are trying to find a very tiny feature in a large image. There are also model execution frameworks available, mainly on cloud which are trickier to use. In industrial applications, a cloud-based solution is more likely to be an unsuitable solution, often replaced by on premise and offline execution systems. The model execution frameworks also tend to be very specific to the model type that it is designed to use – the outputs can vary (e.g. between classification models and object detection models), the underlying dependencies can also vary (e.g. between TensorFlow and PyTorch), and their hardware / computational requirements can also vary.

Seiten: 1 2 3Auf einer Seite lesen

Thematik:
Tedo Verlag GmbH
www.tedo-verlag.de

Das könnte Sie auch Interessieren

Anzeige

Vorfreude auf Control 2022

Vorfreude auf Control 2022

Vom 03. bis 06. Mai 2022 wird die 34. Control – Internationale Fachmesse für Qualitätssicherung – in Stuttgart stattfinden.

EMVA Webinar mit Continental Teves

EMVA Webinar mit Continental Teves

Das nächste EMVA Spotlight Webinar findet am Donnerstag, den 9. Dezember, ab 16:00 Uhr (CET) statt. Nuria Garrido López (Continental Teves AG) wird über ‚Änderungen und Lösungen für die optische End-of-Line-Inspektion in der Automobilindustrie‘ sprechen.

EMVA Young Professional Award 2022

EMVA Young Professional Award 2022

Der EMVA Young Professional Award wird auf der 20. EMVA Business Conference 2022 vergeben, die vom 12. bis 14. Mai in Brüssel, Belgien, stattfindet.

Video: EMVA Vision Pitches – Robot Vision

Video: EMVA Vision Pitches – Robot Vision

Teil der inVISION Days 2021 Konferenz waren die EMVA Vision Pitches, bei der sich interessante Unternehmen aus der Bildverarbeitung mit einem kurzen zehn-Minuten-Pitch vorgestellt haben.

Neues Beiratsmitglied für TriEye

Neues Beiratsmitglied für TriEye

Das israelische Startup-Unternehmen TriEye hat Hans Rijns (Bild), eine Führungskraft aus der Halbleiterbranche mit über 25 Jahren internationaler Erfahrung in den Bereichen F&E-Management, Innovation und Geschäftsstrategie, in seinen Beirat aufgenommen.

Vision-Branche auf starkem Kurs

Vision-Branche auf starkem Kurs

Mehr als 1,5 Jahre nach dem Ausbruch der Corona-Pandemie befindet sich der Industrial Technology Index nach einer Stabilisierung auf einem anhaltend hohen Niveau.

Lattice übernimmt Miramterix

Lattice übernimmt Miramterix

Lattice Semiconductor hat Mirametrix, Inc. übernommen, ein Softwareunternehmen, das sich auf fortschrittliche KI-Lösungen für Computer-Vision-Anwendungen spezialisiert hat.

Bild: Alteia
Bild: Alteia
15 Millionen Euro Finanzierung für Alteia

15 Millionen Euro Finanzierung für Alteia

Die Europäische Investitionsbank (EIB) und das in Toulouse ansässige Startup Alteia, das sich auf die Entwicklung von Software für künstliche Intelligenz spezialisiert hat, haben die Unterzeichnung einer Finanzierungsvereinbarung über 15Mio.€ bekannt gegeben.

Micro-Epsilon erweitert Vertriebsteam

Micro-Epsilon erweitert Vertriebsteam

Micro-Epsilon hat sein Vertriebsteam verstärkt. Seit Oktober unterstützen Marcus Gluth (Bild) in den Bereichen Weg- und Abstandssensoren, berührungslose IR-Temperatursensoren sowie Farbsensoren und Jens Höppner im Bereich 3D-Sensoren und Laser-Scanner den Außendienst des Unternehmens.

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige