NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

D'DGX A100 System, baséiert op deem Jen-Hsun Huang kuerzem huet et aus dem Uewen geholl, enthält aacht A100 GPUs, sechs NVLink 3.0 Schalter, néng Mellanox Netzwierk Controller, zwee AMD EPYC Rome-Generatioun Prozessoren mat 64 Cores, 1 TB RAM an 15 TB SSDs mat NVMe Support.

NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

NVIDIA DGX A100 ass déi drëtt Generatioun vun de Rechensystemer vun der Firma, haaptsächlech entwéckelt fir kënschtlech Intelligenz Probleemer ze léisen. Elo sinn esou Systemer op déi lescht A100 Grafikprozessoren aus der Ampere Famill gebaut, wat eng schaarf Erhéijung vun hirer Leeschtung verursaacht, déi 5 Petaflops erreecht huet. Dank dësem ass den DGX A100 fäeg vill méi komplex AI Modeller a vill méi grouss Datenvolumen ze handhaben.

Fir den DGX A100 System weist NVIDIA nëmmen de Gesamtbetrag vun HBM2 Erënnerung un, wat 320 GB erreecht. Einfach arithmetesch Berechnungen erlaben eis ze bestëmmen, datt all GPU huet 40 GB Erënnerung, a Biller vun der neier Produit maachen et kloer, datt dëst Volumen ënnert sechs stacks verdeelt ass. D'Grafik Memory Bandbreed gëtt och erwähnt - 12,4 TB / s fir de ganzen DGX A100 System am Ganzen.

Bedenkt datt den DGX-1 System, baséiert op aacht Tesla V100s, ee Petaflops a gemëschte Präzisiounsberechnungen produzéiert huet, an den DGX A100 gëtt behaapt op fënnef Petaflops ze Leeschtunge, kënne mir ugeholl datt a spezifesche Berechnungen eng Ampere GPU fënnef Mol méi séier ass wéi säi Virgänger mat Volta Architektur. An e puer Fäll gëtt de Virdeel zwanzegfach.

NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

Am Ganzen liwwert den DGX A8 System eng Héichleistung vun 100 Operatiounen pro Sekonn an Integer Operatiounen (INT1016), an Hallefpräzis Floating Point Operatiounen (FP16) - 5 Petaflops, an Duebelpräzis Floating Point Operatiounen (FP64) - 156 Teraflops . Zousätzlech erreecht den DGX A32 eng Héichleistung vun 100 Petaflops am TF2,5 Tensor Computing. Loosst eis drun erënneren datt een Teraflops 1012 Floating Point Operatiounen pro Sekonn ass, ee Petaflops ass 1015 Floating Point Operatiounen pro Sekonn.

Eng wichteg Feature vun NVIDIA A100 Beschleuniger ass d'Fäegkeet d'Ressourcen vun enger GPU a siwe virtuelle Segmenter opzedeelen. Dëst erlaabt Iech d'Konfiguratiounsflexibilitéit am selwechte Wolleksegment wesentlech ze erhéijen. Zum Beispill kann een DGX A100 System mat aacht kierperlech GPUs als 56 virtuell GPUs handelen. Multi-Instance GPU (MIG) Technologie erlaabt Iech Segmenter vu verschiddene Gréissten ze wielen souwuel ënnert de Rechenkären an als Deel vum Cache Memory an HBM2 Memory, a si wäerten net matenee konkurréiere fir Bandbreedung.

NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

Et ass derwäert ze bemierken datt am Verglach mat fréiere DGX Systemer d'Anatomie vun der DGX A100 e puer Ännerungen erlieft huet. D'Zuel vun Hëtztleitungen an den Heizkierper vun de SXM3 Moduler, op deenen A100 Grafikprozessoren mat HBM2 Memory installéiert sinn, ass wesentlech eropgaang am Verglach mat den Tesla V100 Moduler vun der Volta Generatioun, obwuel hir Enden aus der Sicht vun der Moyenne Persoun verstoppt sinn. duerch déi iewescht Deckelen. Déi praktesch Limit fir dësen Design ass 400 W thermesch Energie. Dëst gëtt och bestätegt vun den offiziellen Charakteristiken vun der A100 an der SXM3 Versioun, déi haut publizéiert gëtt.

Nieft den A100 GPUs um Motherboard si sechs Drëtt Generatioun NVLink Interface Schalter, déi zesummen zwee-Wee Datenaustausch mat enger Geschwindegkeet vun 4,8 TB / s ubidden. NVIDIA huet och eescht ëm hir Ofkillung gekëmmert, beurteelt duerch déi vollprofil Heizkierper mat Hëtztleitungen. All GPU gëtt 12 Kanäl vun der NVLink Interface zougewisen; Nopesch GPUs kënnen Daten mat enger Geschwindegkeet vun 600 GB / s austauschen.

Den DGX A100 System huet och néng Mellanox ConnectX-6 HDR Netzwierk Controller, déi fäeg sinn Informatioun mat Geschwindegkeete vu bis zu 200 Gbit / s ze vermëttelen. Am Ganzen bitt den DGX A100 zwee-Wee Datentransfer mat enger Geschwindegkeet vun 3,6 TB / s. De System benotzt och propriétaire Mellanox Technologien, déi op effizient Skaléierung vu Rechensystemer mat sou enger Architektur zielen. PCI Express 4.0 Ënnerstëtzung um Plattformniveau gëtt vun AMD EPYC Rome Generatioun Prozessoren festgeluegt; Als Resultat gëtt dës Interface net nëmme vun A100 Grafikacceleratoren benotzt, awer och vu Solid-State Drive mam NVMe Protokoll.

NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

Zousätzlech zu der DGX A100 huet NVIDIA ugefaang seng Partner mat HGX A100 Boards ze liwweren, déi ee vun de Komponente vu Serversystemer sinn, déi aner Hiersteller eleng produzéieren. Een eenzegen HGX A100 Board kann entweder véier oder aacht NVIDIA A100 GPUs aménagéieren. Zousätzlech, fir seng eegen Bedierfnesser, huet NVIDIA schonn DGX SuperPOD versammelt - e Stärekoup vun 140 DGX A100 Systemer, déi Leeschtung bei 700 Petaflops mat zimlech bescheidenen Gesamtdimensiounen ubitt. D'Firma huet versprach methodologesch Hëllef u Partner ze bidden, déi ähnlech Rechencluster op der DGX A100 bauen wëllen. Iwwregens huet et NVIDIA net méi wéi ee Mount gedauert fir den DGX SuperPOD ze bauen anstatt e puer Méint oder souguer Joeren typesch fir sou Aufgaben.

NVIDIA DGX A100: Debut Ampere-baséiert Plattform bitt fënnef Petaflops vu Leeschtung

Laut NVIDIA hunn d'Liwwerunge vun der DGX A100 scho bei engem Präis vun $ 199 pro Kopie ugefaang, d'Partner vun der Firma hosten dës Systemer schonn an hire Cloudcluster, den Ökosystem deckt scho 000 Länner, dorënner Vietnam an d'UAE. Zousätzlech wäerte Grafikléisungen mat Ampere Architektur zimlech prévisibel Deel vum Perlmutter Supercomputer System sinn, erstallt vum Cray fir den US Department of Energy. Et wäert NVIDIA Ampere GPUs niewent der AMD EPYC Mailand Generatioun Zentralprozessoren mat Zen 26 Architektur enthalen. Departement.



Source: 3dnews.ru

Setzt e Commentaire