Cadence: neues Tensilica-Prozessor-IP für KI-Anwendungen

PRODUKT NEWS FPGA-EDA

Cadence Design Systems stellt mit der Prozessor-IP Cadence Tensilica DNA 100 eine Deep Neural-Network Accelerator (DNA) IP vor. Die bietet eine Rechenleistung von 0,5 TeraMAC bis zu einigen 100 TeraMACs. Die Prozessor-IP ist für On-Device Inferenz-Anwendungen von neuronalen Netzen geeinigt, wie autonome Fahrzeuge sowie für ADAS-, Überwachungs-, Roboter-, Drohnen-, AR/VR- (Augmented/Virtual Reality), Smartphone-, Smart-Home- und IoT-Anwendungen.



Der DNA 100 Prozessor bietet laut Cadence eine bis zu 4,7-fach höhere Performance und eine bis zu 2,3-fach höhere Leistung pro Watt als andere Lösungen mit ähnlicher MAC-Array-Größe (Multiplier-Accumulator). Neuronale Netze lassen sich durch inhärente “Sparsity“ sowohl hinsichtlich der Gewichtungen als auch der Aktivierungen charakterisieren. Diese bewirken, dass die MACs in anderen Prozessoren unnötigerweise durch das Laden und Multiplizieren von Nullen beschäftigt werden.


Die spezielle Hardware Computer-Engine des DNA 100 Prozessors vermeidet beide Aufgaben, so dass diese “Sparsity“ für die Leistungseffizienz und zur Reduzierung des Rechenaufwands genutzt werden kann. Das neue Trainieren von neuronalen Netzen hilft dabei die “Sparsity“ in den Netzwerken zu erhöhen und eine maximale Performance der Sparse Compute Engine des DNA 100 Prozessors zu erreichen.


Damit kann der DNA 100 Prozessor einen maximalen Durchsatz mit einem kleineren Array erreichen. Dies wird durch seine Fähigkeit verdeutlicht, bis zu 2.550 Frames pro Sekunde (fps) und bis zu 3,4 TMACs/W (bei 16 nm) geschätzter On-Device Inferenz-Leistung auf ResNet 50 für eine 4K MAC Konfiguration zu erreichen.



KI-Softwareplattform

Der DNA 100 Prozessor ist mit einer KI-Softwareplattform (KI: künstliche Intelligenz) ausgestattet. Die Kompatibilität mit der neusten Version des Tensilica Neural Network Compiler ermöglicht die Unterstützung fortschrittlicher AI-Frameworks, wie Caffe, TensorFlow, TensorFlow Lite und einem breiten Spektrum von neuronalen Netzen einschließlich Convolution- und Recurrent-Netze. Dadurch ist der DNA 100 Prozessor für On-Device-Inferenz für Vision-, Sprach-, Radar-, Lidar- und Kommunikationsanwendungen geeignet.


Der Tensilica Neural Network Compiler nutzt Bibliothek-Funktionen für neuronale Netze, um das neuronale Netz in ausführbaren und optimierten Code abzubilden. Dadurch verfügt der DNA 100 Prozessor über eine robuste Softwareökosystem-Unterstützung für verschiedene Netztypen, einschließlich Klassifikation, Objekterkennung, Segmentation, Rekurrenz und Regression. Der DNA 100 Prozessor unterstützt auch das Android Neural Network (ANN) API für eine On-Device-AI-Inferenz in Geräten mit Android-Betriebssystem.



Der DNA 100 Prozessor kann ...

alle Ebenen von neuronalen Netzen ausführen, einschließlich Convolution, voll vernetzt, LSTM, LRN und Pooling. Ein einziger DNA 100 Prozessor lässt sich von 0,5 bis 12 effektiven TMACs skalieren. Mehrere DNA 100 Prozessoren lassen sich einfach koppeln, um 100derte TMACs für den Einsatz in sehr rechenintensiven On-Device-Neuronalen-Netzanwendungen zu erreichen.


Der DNA 100 Prozessor beinhaltet auch einen Tensilica DSP, um alle neuen Ebenen von neuronalen Netzen abzudecken, die derzeit nicht von den Hardware-Engines im DNA 100 Prozessor unterstützt werden. Außerdem ermöglicht der DSP eine Erweiterbarkeit und Programmierbarkeit des Tensilica Xtensa Cores durch die Verwendung der Tensilica Instruction Extension (TIE) Befehle.


Da der DNA 100 Prozessor über einen eigenen DMA (Direct Memory Access) verfügt, kann er auch anderen Steuercode ausführen, ohne dass ein zusätzlicher Controller benötigt wird. Der DNA 100 Prozessor ist ab Dezember 2018 für ausgewählte Kunden erhältlich. Die allgemeine Verfügbarkeit ist für das erste Quartal 2019 geplant.

Fachartikel