Startseite UnternehmenAccessoires NVIDIA A100 80 GB GPU vorgestellt

NVIDIA A100 80 GB GPU vorgestellt

by Adam Armstrong
NVIDIA A100 80 GB

NVIDIA gab heute auf der SC20 bekannt, dass seine beliebte A100-GPU mit der Vorstellung der NVIDIA A100 80-GB-GPU eine Verdoppelung des Speichers mit hoher Bandbreite erfahren wird. Diese neue GPU wird die Innovation sein, die die neue NVIDIA HGX AI Supercomputing-Plattform antreibt. Mit dem doppelten Speicher soll die neue GPU Forschern und Ingenieuren dabei helfen, beispiellose Geschwindigkeit und Leistung zu erreichen, um die nächste Welle von KI- und wissenschaftlichen Durchbrüchen freizusetzen.

NVIDIA gab heute auf der SC20 bekannt, dass seine beliebte A100-GPU mit der Vorstellung der NVIDIA A100 80-GB-GPU eine Verdoppelung des Speichers mit hoher Bandbreite erfahren wird. Diese neue GPU wird die Innovation sein, die die neue NVIDIA HGX AI Supercomputing-Plattform antreibt. Mit dem doppelten Speicher soll die neue GPU Forschern und Ingenieuren dabei helfen, beispiellose Geschwindigkeit und Leistung zu erreichen, um die nächste Welle von KI- und wissenschaftlichen Durchbrüchen freizusetzen.

NVIDIA A100 80 GB

Anfang dieses Jahres kündigte NVICIA auf der GTC die Veröffentlichung seines an 7-nm-GPU, die NVIDIA A100. Wie wir damals schrieben, basiert der A100 auf der Ampere-Architektur von NVIDIA und enthält 54 Milliarden Transistoren. Wie frühere Rechenzentrums-GPUs von NVIDIA verfügt auch der A100 über Tensorkerne. Tensor-Kerne sind spezielle Teile der GPU, die speziell dafür entwickelt wurden, schnell eine Art Matrixmultiplikation und Additionsberechnung durchzuführen, die häufig bei Inferenzen verwendet wird. Mit neuen, leistungsstärkeren GPUs kommen auch neue, leistungsstärkere Tensor-Kerne. Bisher konnten die Tensor-Cores von NVIDIA nur bis zu 100-Bit-Gleitkommazahlen unterstützen. Der AXNUMX unterstützt XNUMX-Bit-Gleitkommaoperationen und ermöglicht so eine wesentlich höhere Präzision.

Durch die Erweiterung des High-Bandwidth-Speichers (HBM2e) auf 80 GB soll eine Speicherbandbreite von 2 Terabyte pro Sekunde erreicht werden. Dieser neue Schub hilft bei den neuen HPC-Anwendungen, die einen enormen Datenspeicherbedarf haben, wie zum Beispiel KI-Training, Verarbeitung natürlicher Sprache und Big-Data-Analysen, um nur einige zu nennen.

Hauptmerkmale des A100 80 GB

Der A100 80 GB umfasst die vielen bahnbrechenden Funktionen der NVIDIA Ampere-Architektur:

  • Tensorkerne der dritten Generation: Bietet bis zu 20-fachen KI-Durchsatz der vorherigen Volta-Generation mit einem neuen Format TF32 sowie 2.5x FP64 für HPC, 20x INT8 für KI-Inferenz und Unterstützung für das BF16-Datenformat.
  • Größerer, schnellerer HBM2e-GPU-Speicher: Verdoppelt die Speicherkapazität und ist der erste in der Branche, der mehr als 2 TB Speicherbandbreite pro Sekunde bietet.
  • MIG-Technologie: Verdoppelt den Speicher pro isolierter Instanz und stellt bis zu sieben MIGs mit jeweils 10 GB bereit.
  • Strukturelle Sparsität: Bietet bis zu 2-fache Beschleunigung bei der Inferenzierung von Modellen mit geringer Dichte.
  • NVLink und NVSwitch der dritten Generation: Bietet die doppelte GPU-zu-GPU-Bandbreite der Verbindungstechnologie der vorherigen Generation und beschleunigt die Datenübertragung zur GPU für datenintensive Arbeitslasten auf 600 Gigabyte pro Sekunde.

Verfügbarkeit

Die führenden Systemanbieter Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta und Supermicro werden voraussichtlich in der ersten Hälfte des nächsten Jahres damit beginnen, Systeme anzubieten, die auf integrierten HGX A100-Baseboards mit A100 80-GB-GPUs basieren.

NVIDIA

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed