Release 2017b für MATLAB und Simulink verfügbar

PRODUKT NEWS FPGA-EDA EMBEDDED SYSTEMS IT-ENGINEERING

MathWorks stellt mit dem Release 2017b neue Funktionen für MATLAB und Simulink vor: darunter sechs neue Produkte sowie Updates und Verbesserungen für 86 weitere Produkte. Besonders im Bereich Deep Learning bietet R2017b Funktionen, die helfen, neue Modelle zu designen, zu trainieren und zu implementieren.



Mit neuen Updates bietet die Neural Network Toolbox nun Unterstützung für komplexere Architekturen, wie zum Beispiel für gerichtete azyklische Grafen (Directed Acyclic Graph, DAG). Das verbessert die Genauigkeit und bietet die Möglichkeit, auf bereits vortrainierte Modelle wie GoogLeNet zurückzugreifen. Mit der Integration von Long Short-Term Memory (LSTM)-Netzen können Entwickler über reine Bildklassifikationen hinausgehen und Text klassifizieren sowie Zeitreihen vorhersagen.



Klassifizierung von Bildern und semantische Segmentierung

Eine der aufwendigsten Arbeiten bei der Erstellung neuer Deep-Learning-Modelle ist die Klassifizierung von Bildern zum Trainieren des Programms. Die Image Labeler App der Computer Vision System Toolbox bietet eine interaktive Methode, um Referenzdaten in einer Abfolge von Bildern zu markieren. Neben Workflows für die Objekterkennung unterstützt die App nun auch semantische Segmentierung.


So können zum Beispiel mithilfe von Deep Learning Pixelbereiche in Bildern klassifiziert werden oder Segmentierungsergebnisse bewertet und visualisiert werden. Zusätzlich können zusammen mit den in R2017a vorgestellten Features vortrainierte Modelle für das Transfer Learning verwendet werden, darunter neuronale Faltungsnetzwerk-(CNN)-Modelle (AlexNet, VGG-16 und VGG-19) sowie Modelle aus Caffe (inklusive Caffe Model Zoo). Modelle können auch komplett neu erstellt werden, indem man CNNs für die Bildklassifizierung, Objekterkennung, Regression und mehr nutzt.



Schnelligkeit in der Implementierung

Der GPU Coder ist ein neues Produkt, das Deep-Learning-Modelle automatisch in CUDA-Code für NVIDIA GPUs konvertiert. Ein Grund für den anhaltenden Trend zu Deep Learning ist die enorme Verbesserung der GPU-Leistung, die allein in den letzten drei Jahren um den Faktor 60 gestiegen ist. Um diese Leistung auch für Deep-Learning-Modelle nutzen zu können, stellt der GPU Coder eine automatische Umwandlung zu CUDA-Code bereit. Somit kann der Code direkt auf NVIDIA GPUs ausgeführt werden, was eine Verarbeitung von bis zu 3.000 Bildern pro Sekunde erlaubt.


Interne Benchmarks zeigen, dass der generierte Code für die Deep-Learning-Inferenz für bereitgestellte Modelle eine bis zu 7-mal bessere Leistung als TensorFlow erreicht und eine 4,5-mal bessere Leistung als Caffe2.



Neben den Updates für Deep Learning ...

bietet R2017b auch Neuerungen für andere Bereiche. Sie betreffen Data Analytics mit MATLAB, Modellierung von Echtzeit-Software mit Simulink und die Verifikation und Validierung mit Simulink.

Fachartikel