Vortrainierte Modelle

Vortrainierte Modelle

Deep Learning Modelle schneller designen und trainieren

Besonders im Bereich Deep Learning bietet der Release R2017b von Matlab neue Funktionen, die helfen, neue Modelle schneller und einfacher zu designen, zu trainieren und zu implementieren.

Semantische Segmentierung und Deep Learning mit Matlab in der Entwicklung des automatisierten Fahrens. (Bild: The Mathworks GmbH)

Semantische Segmentierung und Deep Learning mit Matlab in der Entwicklung des automatisierten Fahrens. (Bild: The Mathworks GmbH)

„Mit Release 2017b können Ingenieure und Systemintegrationsteams den Einsatz von Matlab für Deep Learning Funktionen weiter ausbauen. Sie können vortrainierte Netzwerke verwenden, an Code und Modellen zusammenarbeiten und diese auf GPUs und Embedded Systemen bereitstellen.“, so David Rich, Matlab Marketing Director bei Mathworks. Mit dem Update bietet z.B. die Neural Network Toolbox Unterstützung für komplexere Topologien. Das verbessert die Genauigkeit und bietet die Möglichkeit, auf beliebte bereits vortrainierte Modelle wie Googlenet zurückzugreifen. Mit der Integration von Long Short-Term Memory Netzen (LSTM) können Entwickler über reine Bildklassifikationen hinausgehen und Text klassifizieren sowie Zeitreihen vorhersagen. Die Image Labeler App der Computer Vision System Toolbox bietet nun eine interaktive Methode, um Referenzdaten in einer Abfolge von Bildern zu markieren. Neben Workflows für die Objekterkennung unterstützt die App auch semantische Segmentierung. Zusätzlich können auch vortrainierte Modelle für das Transfer Learning verwendet werden, darunter CNN-Modelle (Alexnet, VGG-16 und VGG-19) sowie Modelle aus Caffe (inkl. Caffe Model Zoo). Die Modelle können auch komplett neu erstellt werden, indem man CNNs für die Bildklassifizierung, Objekterkennung, Regression und mehr nutzt. Der GPU Coder konvertiert Deep Learning Modelle automatisch in Cuda-Code für Nvidia GPUs. Ein Grund für den Trend zu Deep Learning ist die enorme Verbesserung der GPU-Leistung, die allein in den letzten drei Jahren um den Faktor 60 gestiegen ist. Um diese Leistung auch für Deep Learning Modelle nutzen zu können, stellt der GPU Coder eine automatische Umwandlung zu Cuda-Code bereit. Somit kann der Code direkt auf Nvidia GPUs ausgeführt werden, was eine Verarbeitung von bis zu 3.000fps erlaubt. Interne Benchmarks zeigen, dass der generierte Code für die Deep Learning Inferenz für bereitgestellte Modelle eine bis zu 7-mal bessere Leistung als Tensorflow erreicht und eine 4,5-mal bessere Leistung als Caffe2.

Themen:

| Fachartikel

Ausgabe:

inVISION 6 2017
The MathWorks GmbH

Das könnte Sie auch Interessieren

Bild: EMVA
Bild: EMVA
EMVA 1288 Standard Online Training

EMVA 1288 Standard Online Training

Am 18. Juni sowie am 3. Dezember findet ein dreitägiger Online-Kurs zur Norm 1288 der European Machine Vision Association (EMVA) statt. Ziel des Trainingskurses ist u.a. die vertiefte Kenntnis über die Grundlagen der neuen Version 4.0 sowie das Sammeln von praktischen Erfahrungen.

Bild: Mahr GmbH
Bild: Mahr GmbH
Mahr Innovation Days 2024

Mahr Innovation Days 2024

Am 12. bis 13. Juni findet in Göttingen bei Mahr die Innovation Days 2024 statt. Dabei stellt die Firma zahlreiche Neuheiten zur Oberflächenmessung und Messtechnik vor und gibt an beiden Tagen in zahlreichen Vorträgen einen Überblick über aktuelle Trends und Produkte.

Bild: Ing. Büro Roth GmbH
Bild: Ing. Büro Roth GmbH
KI und Siemens Industial Edge bei Krombacher

KI und Siemens Industial Edge bei Krombacher

Die Einsatzmöglichkeiten von KI sind enorm und betreffen viele Bereiche unseres Lebens. Entsprechend sind die Erwartungen im industriellen Sektor ebenfalls sehr hoch. Gleichzeitig steigen nicht nur die Einsatzmöglichkeiten, sondern auch die Anzahl der umgesetzten Projekte. Das solche Lösungen sehr zuverlässig und flexibel eingesetzt werden können, zeigt eine Anwendung aus der Abfüllung der Krombacher Brauerei.