Die neue Nvidia A100 PCIe-GPU bietet 80 GB HBM2e-Speicher mit 2 TB/s Bandbreite
Nvidia hat heute seine neueste Grafikkarte für HPC-Systeme und Server-Rechenzentren offiziell vorgestellt. Die Nvidia A100 80G PCIe basiert auf der bereits erhältlichen Nvidia A100 – die GA100-GPU setzt weiterhin auf 6.912 CUDA-Recheneinheiten bei Boost-Taktfrequenzen bis 1.410 MHz und einer nominalen Performance von 78 TFLOPs (FP16), 19,5 TFLOPs (FP32) bzw. 9,7 TFLOPs (FP64).
Das größte Upgrade gibts beim Speicher, denn die neue Nvidia A100 setzt auf 80 GB HBM2e-Grafikspeicher mit einem Speichertakt von 3.186 Gbps für eine effektive Bandbreite von eindrucksvollen 2.039 GB/s – damit ist der Speicher immerhin 484 GB/s schneller im Vergleich zur Nvidia A100 mit 40 GB Grafikspeicher. Die A100 hat keinerlei Gaming-Ambitionen – Videoausgänge fehlen beispielsweise komplett. Stattdessen soll sich die GPU vor allem für Anwendungen wie Deep Learning eignen, wo der große und schnelle Grafikspeicher für aufwändige Datenmodelle genutzt werden kann.
Die Nvidia A100 unterstützt DirectStorage, sodass die Grafikkarte direkt auf eine schnelle M.2-SSD zugreifen kann, ohne dass die Daten erst vom Prozessor verarbeitet werden müssen, wodurch die Performance bestimmter Workloads verbessert werden kann. Interessanterweise sinkt die TGP maßgeblich: Während die A100 SXM eine Verlustleistung von 400 Watt aufweist begnügt sich die A100 PCIe mit nur 250 Watt. Wie eingangs bereits erwähnt erfolgt die Anbindung an den Computer per PCIe 4.0. Nähere Details zur Nvidia A100 gibt es auf der Webseite des Herstellers.