Xilinx: FPGA-basierte Beschleunigerkarten für Rechenzentren und KI

PRODUKT NEWS FPGA-EDA

Die FPGA-basierten Beschleunigerkarten der Serie Alveo von Xilinx sind für Industrie-Standard Server in lokalen und Cloud-basierten Rechenzentren vorgesehen. Sie werden für Machine-Learning-Inferenz in Echtzeit, für die Videoverarbeitung, für Genomik, Datenanalytik und andere KI-Funktionen (KI: künstliche Intelligenz) eingesetzt.



Die Modelle Alveo U200 und Alveo U250 basieren auf dem Xilinx UltraScale+ FPGA. Beide sind ab sofort in Produktionsstückzahlen lieferbar. Die Hardware lässt sich anwenderseitig rekonfigurieren, um sie für wechselnde Workloads, neue Standards und aktualisierte Algorithmen zu optimieren.


Beim Machine Learning erhöht Alveo U250 laut Xilinx den Durchsatz für Echtzeit-Inferenz um den Faktor 20 gegenüber High-End CPUs und um mehr als das Vierfache in Sub-2-ms Applikationen mit niedriger Latenz gegenüber Akzeleratoren mit fester Funktion wie High-End GPUs. Darüber hinaus reduzieren die Beschleunigerkarten die Latenz um das Dreifache gegenüber GPUs. Applikationen wie Datenbank-Suche lassen sich beschleunigen, so dass sie CPUs dabei um das 90-fache überbieten können.



Das Ökosystem

Alveo wird von einem Ökosystem an Partnern und OEMs unterstützt, die Schlüsselapplikationen für AI/ML, wie Video-Transcoding, Datenanalytik, Finanzrisiko-Modellierung, Sicherheitstechnik und Genomik-Forschung entwickelt und qualifiziert haben.


Vierzehn dieser Ökosystem-Partner halten derartige Applíkationen zum sofortigen Einsatz bereit: Algo-Logic Systems, Bigstream, BlackLynx, CTAccel, Falcon Computing, Maxeler Technologies, Mipsology, NGCodec, Skreens, SumUp Analytics, Titan IC, Vitesse Data, VYUsync und Xelera Technologies. Außerdem kollaborieren Top-OEMs wie Dell EMC, Fujitsu Limited und IBM mit Xilinx bei der Qualifizierung mehrerer Server-SKUs mit Alveo Beschleunigerkarten. Weitere Partner sollen dazukommen.


Die Xilinx Alveo U200 und U250 Beschleunigerkarten sind ab sofort zu einem Preis ab 8.995 US-Dollar lieferbar. Alternativ können sie zunächst probehalber in der Nimbix Cloud eingesetzt werden.

Fachartikel