Automatische Spracherkennung, medizinische Bildverarbeitung, Fahrspurerkennung selbstfahrender Fahrzeuge und Projekte für autonome Fortbewegung (z.B. KI-gesteuerte Flugzeuge) basieren auf KI-Technologien. Die NVIDIA A100 PCIe-Karte wurde zur Beschleunigung von KI- und HPC-Workflows, für leistungsfähige Datenanalyse und Grafikdarstellungen entwickelt und für den Einsatz in Rechenzentren konzipiert. Die verwendete „Ampere-Architektur“ ermöglicht bis zu 20-mal mehr Leistung gegenüber der Vorgängergeneration.
Die NVIDIA Multi-Instanz-GPU-Technologie (MIG) verbessert die Leistung und Effizienz der NVIDIA A100 Tensor Core GPUs. MIG kann den A100-Grafikprozessor in bis zu sieben Instanzen aufteilen, die vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen. Der Grafikprozessor basiert auf einer Architektur mit 6912 Cuda-Kernen, 432 Tensor-Kernen, 40 GB HBM2-Speicher mit 5120 Bit breitem Speicherbus für 312 TFlops an Deep-Learning-Rechenleistung. Dadurch kann ein Server mit NVIDIA A100 GPUs, Hunderte von herkömmlichen CPUs ersetzen.
Technische Eckdaten:
- CUDA Cores : 6912
- Tensor Cores: 432
- Rechenleistung : 312 TFlops bei Deep Learning
- FP32 Compute: 19,5 TFlops
- FP64 Compute: 9,7 TFlops
- System-Schnittstelle : PCIe Gen4
- Multi-Instanz-GPU-Technologie: bis 7 GPU
- Passive Kühlung
- Verbrauch : 250W max.
- API : CUDA, DirectCompute, OpenCL, OpenACC









