Vortrainierte Modelle

Vortrainierte Modelle

Deep Learning Modelle schneller designen und trainieren

Besonders im Bereich Deep Learning bietet der Release R2017b von Matlab neue Funktionen, die helfen, neue Modelle schneller und einfacher zu designen, zu trainieren und zu implementieren.

Semantische Segmentierung und Deep Learning mit Matlab in der Entwicklung des automatisierten Fahrens. (Bild: The Mathworks GmbH)

Semantische Segmentierung und Deep Learning mit Matlab in der Entwicklung des automatisierten Fahrens. (Bild: The Mathworks GmbH)

„Mit Release 2017b können Ingenieure und Systemintegrationsteams den Einsatz von Matlab für Deep Learning Funktionen weiter ausbauen. Sie können vortrainierte Netzwerke verwenden, an Code und Modellen zusammenarbeiten und diese auf GPUs und Embedded Systemen bereitstellen.“, so David Rich, Matlab Marketing Director bei Mathworks. Mit dem Update bietet z.B. die Neural Network Toolbox Unterstützung für komplexere Topologien. Das verbessert die Genauigkeit und bietet die Möglichkeit, auf beliebte bereits vortrainierte Modelle wie Googlenet zurückzugreifen. Mit der Integration von Long Short-Term Memory Netzen (LSTM) können Entwickler über reine Bildklassifikationen hinausgehen und Text klassifizieren sowie Zeitreihen vorhersagen. Die Image Labeler App der Computer Vision System Toolbox bietet nun eine interaktive Methode, um Referenzdaten in einer Abfolge von Bildern zu markieren. Neben Workflows für die Objekterkennung unterstützt die App auch semantische Segmentierung. Zusätzlich können auch vortrainierte Modelle für das Transfer Learning verwendet werden, darunter CNN-Modelle (Alexnet, VGG-16 und VGG-19) sowie Modelle aus Caffe (inkl. Caffe Model Zoo). Die Modelle können auch komplett neu erstellt werden, indem man CNNs für die Bildklassifizierung, Objekterkennung, Regression und mehr nutzt. Der GPU Coder konvertiert Deep Learning Modelle automatisch in Cuda-Code für Nvidia GPUs. Ein Grund für den Trend zu Deep Learning ist die enorme Verbesserung der GPU-Leistung, die allein in den letzten drei Jahren um den Faktor 60 gestiegen ist. Um diese Leistung auch für Deep Learning Modelle nutzen zu können, stellt der GPU Coder eine automatische Umwandlung zu Cuda-Code bereit. Somit kann der Code direkt auf Nvidia GPUs ausgeführt werden, was eine Verarbeitung von bis zu 3.000fps erlaubt. Interne Benchmarks zeigen, dass der generierte Code für die Deep Learning Inferenz für bereitgestellte Modelle eine bis zu 7-mal bessere Leistung als Tensorflow erreicht und eine 4,5-mal bessere Leistung als Caffe2.

Themen:

| Fachartikel

Ausgabe:

inVISION 6 2017
The MathWorks GmbH

Das könnte Sie auch Interessieren