NVIDIA-PCIe-Grafikkarte für KI-Anwendungen

EMBEDDED SYSTEMS

PNY Technologies erweitert sein Sortiment an GPUs um die NVIDIA A100 PCIe-Grafikkarte. Sie soll Anwendungen der KI (künstliche Intelligenz), Datenanalysen und Hochleistungs-Computing (HPC) unterstützen.



Automatische Spracherkennung, medizinische Bildverarbeitung, Fahrspurerkennung selbstfahrender Fahrzeuge und Projekte für autonome Fortbewegung (z.B. KI-gesteuerte Flugzeuge) basieren auf KI-Technologien. Die NVIDIA A100 PCIe-Karte wurde zur Beschleunigung von KI- und HPC-Workflows, für leistungsfähige Datenanalyse und Grafikdarstellungen entwickelt und für den Einsatz in Rechenzentren konzipiert. Die verwendete „Ampere-Architektur“ ermöglicht bis zu 20-mal mehr Leistung gegenüber der Vorgängergeneration.

Die NVIDIA Multi-Instanz-GPU-Technologie (MIG) verbessert die Leistung und Effizienz der NVIDIA A100 Tensor Core GPUs. MIG kann den A100-Grafikprozessor in bis zu sieben Instanzen aufteilen, die vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen. Der Grafikprozessor basiert auf einer Architektur mit 6912 Cuda-Kernen, 432 Tensor-Kernen, 40 GB HBM2-Speicher mit 5120 Bit breitem Speicherbus für 312 TFlops an Deep-Learning-Rechenleistung. Dadurch kann ein Server mit NVIDIA A100 GPUs, Hunderte von herkömmlichen CPUs ersetzen.

Technische Eckdaten:

  • CUDA Cores : 6912
  • Tensor Cores: 432
  • Rechenleistung : 312 TFlops bei Deep Learning
  • FP32 Compute: 19,5 TFlops
  • FP64 Compute: 9,7 TFlops
  • System-Schnittstelle : PCIe Gen4
  • Multi-Instanz-GPU-Technologie: bis 7 GPU
  • Passive Kühlung
  • Verbrauch : 250W max.
  • API : CUDA, DirectCompute, OpenCL, OpenACC