Wo liegen derzeit (noch) die Probleme beim Deep Learning?

inVISION: Bei einer inVISION Umfrage haben 52,3% der Befragten das Training als das derzeit größte Problem bei Deep Learning bezeichnet, gefolgt von 33,8% bei der Bedienbarkeit. Ist Deep Learning nur etwas für Experten?

T. Manthey: Ich denke grundsätzlich geht es hier um die Übertragbarkeit auf neue Anwendungsfälle. Aber die Antwort ist: JA. Der professionelle Umgang mit Deep Learning Frameworks erfordert: a) ein grundlegendes (mathematisches) Verständnis der verwendeten Algorithmen, b) umfangreiche Erfahrung im Umgang mit Daten und c) sehr gute Entwicklerfähigkeiten in den verschiedensten Programmiersprachen. Welcher Anteil der Unternehmen, die Probleme mit dem Training haben, haben aber auch größere Investitionen in die Technologie vorgenommen? Ich denke wir kennen alle die Antwort. Würden wir als KI-Unternehmen versuchen morgen ein Flugzeug zu bauen? Sicher nicht. Aber warum sollte das umgekehrt anders sein? Dennoch betrachten wir die Entwicklung positiv. Wir freuen uns über Kunden mit dem Verständnis für die Herausforderungen im Umgang mit Deep Learning Anwendungen.

C. Scheubel: Man sollte schon etwas Erfahrung insbesondere beim Trainieren und Implementieren von neuronalen Netzen mitbringen. Wir sehen, dass eine der größten Herausforderungen im Erstellen des Datensatzes liegt. Nur wenn der Datensatz eine hohe Qualität hat, sind gute Ergebnisse vom neuronalen Netz zu erwarten.

M. Bohnacker: Das Training wird oft als sehr problematisch empfunden, da die Möglichkeiten der Einflussnahme sehr begrenzt sind. Entweder alles läuft gut und man bekommt recht schnell ein Modell, das sehr gut performt, oder es läuft schlecht und man weiß nicht so recht, woran es liegt. Allerdings verfolgt DL auch einen ganz anderen Ansatz als traditionelle BV-Algorithmik. Um Anwendungen traditionell zu lösen, stehen sehr viele verschiedene Parameter zur Verfügung, an welchen nachvollziehbar optimiert werden kann, und die einen sehr starken Einfluss auf das Endergebnis haben können. DL hingegen kommt von der Datenseite, d.h. die Qualität der Daten hat einen viel größeren Einfluss auf das Endergebnis als einzelne Parameter. Um einen qualitativ hochwertigen Bilddatensatz zu generieren ist es vor allem wichtig, dass man Experte für die zu realisierende Anwendung ist, um sicher zu stellen, dass sich alle für die Anwendung repräsentativen Aspekte auch im Datensatz wiederfinden. Zudem ist es wichtig, dass sich die verwendeten Tools einfach bedienen lassen, wie z.B. unser Deep Learning Tool, das sowohl für das Datenmanagement als auch für das Training verwendet werden kann, sowie dass alle nötigen Tools ideal aufeinander abgestimmt sind.

F. Weihard: The major difficulty that requires an expert input is the decision on choice of model to train. Once the architecture, framework of the model is decided upon, training can be a very routine and semi-automated operation that can be simplified for non-experts to handle as well. With a particular model framework chosen, the usability of the model can also be well defined – the software required to execute the model on images, the maximum size of defect (or rather defect size to image size ratio), the speed of model execution – all of these can be well defined, hence making the DL model extremely user friendly. When first developing a model for a new application, it is always useful to have experts make the tough choices; and once these choices are made, the next improvements, or additions of classes to the model are much more smooth sailing. Our EaglAI Train package actually is a no-code training environment so that the end users can themselves add defects or variants of the parts.

Seiten: 1 2 3Auf einer Seite lesen

Tedo Verlag GmbH

Das könnte Sie auch Interessieren