NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

A DGX A100 rendszer, amelyre épült Jen-Hsun Huang nemrég kivette a sütőből, nyolc A100 GPU-t, hat NVLink 3.0 kapcsolót, kilenc Mellanox hálózati vezérlőt, két AMD EPYC Rome generációs processzort tartalmaz 64 maggal, 1 TB RAM-mal és 15 TB SSD-vel NVMe támogatással.

NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

Az NVIDIA DGX A100 a cég számítástechnikai rendszereinek harmadik generációja, amelyet elsősorban mesterséges intelligencia problémák megoldására terveztek. Most az ilyen rendszerek az Ampere család legújabb A100 grafikus processzoraira épülnek, ami erőteljes növekedést okoz teljesítményükben, ami elérte az 5 petaflopot. Ennek köszönhetően a DGX A100 sokkal bonyolultabb AI modelleket és sokkal nagyobb adatmennyiséget képes kezelni.

A DGX A100 rendszer esetében az NVIDIA csak a HBM2 memória teljes mennyiségét jelzi, ami eléri a 320 GB-ot. Az egyszerű aritmetikai számítások segítségével megállapíthatjuk, hogy minden GPU-nak 40 GB memóriája van, az új termék képei pedig egyértelművé teszik, hogy ez a kötet hat stack között oszlik meg. A grafikus memória sávszélességét is megemlítik - 12,4 TB / s a ​​teljes DGX A100 rendszerre összesen.

Figyelembe véve, hogy a nyolc Tesla V1-ra épülő DGX-100 rendszer vegyes pontosságú számítások során egy petaflopot produkált, a DGX A100 pedig állítólag öt petaflopot teljesít, feltételezhetjük, hogy bizonyos számításokban egy amperes GPU ötször gyorsabb, mint Volta architektúrájú elődje. Egyes esetekben az előny húszszorossá válik.

NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

Összességében a DGX A8 rendszer 100 művelet/másodperc csúcsteljesítményt biztosít egészszámú műveletekben (INT1016), félpontos lebegőpontos műveletekben (FP16) - 5 petaflops, kettős pontosságú lebegőpontos műveletekben (FP64) - 156 teraflops . Ezenkívül a DGX A32 100 petaflops csúcsteljesítményt ér el a TF2,5 tenzorszámításban. Emlékezzünk vissza, hogy egy teraflop 1012 lebegőpontos művelet másodpercenként, egy petaflop 1015 lebegőpontos művelet másodpercenként.

Az NVIDIA A100 gyorsítók fontos jellemzője, hogy egy GPU erőforrásait hét virtuális szegmensre osztják fel. Ez lehetővé teszi, hogy jelentősen növelje a konfiguráció rugalmasságát ugyanabban a felhőszegmensben. Például egy DGX A100 rendszer nyolc fizikai GPU-val 56 virtuális GPU-ként működhet. A többpéldányos GPU (MIG) technológia lehetővé teszi különböző méretű szegmensek kiválasztását mind a számítási magok között, mind a cache memória és a HBM2 memória részeként, és ezek nem fognak egymással versenyezni a sávszélességért.

NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

Érdemes megjegyezni, hogy a korábbi DGX rendszerekhez képest a DGX A100 anatómiája némi változáson ment keresztül. Az SXM3 modulok radiátoraiban lévő hőcsövek száma, amelyekre HBM100 memóriával rendelkező A2 grafikus processzorok vannak telepítve, jelentősen megnőtt a Volta generációs Tesla V100 moduljaihoz képest, bár végeik rejtve vannak az átlagember szeme elől. a felső borítók által. Ennek a kialakításnak a gyakorlati határa 400 W hőenergia. Ezt erősítik meg az A100 hivatalos jellemzői is az SXM3 verzióban, amelyet ma publikáltak.

Az alaplapon az A100-as GPU-k mellett hat harmadik generációs NVLink interfészkapcsoló található, amelyek együttesen 4,8 TB/s sebességgel biztosítják a kétirányú adatcserét. Az NVIDIA a hűtésükre is komoly gondot fordított, a teljes profilú, hőcsöves radiátorokból ítélve. Minden GPU-hoz az NVLink interfész 12 csatornája van, a szomszédos GPU-k 600 GB/s sebességgel tudnak adatot cserélni.

A DGX A100 rendszerben kilenc Mellanox ConnectX-6 HDR hálózati vezérlő is található, amelyek akár 200 Gbit/s sebességgel is képesek információt továbbítani. Összességében a DGX A100 kétirányú adatátvitelt biztosít 3,6 TB/s sebességgel. A rendszer szabadalmazott Mellanox technológiákat is használ, amelyek célja az ilyen architektúrával rendelkező számítástechnikai rendszerek hatékony méretezése. A PCI Express 4.0 platformszintű támogatását az AMD EPYC Rome generációs processzorai határozzák meg, ennek eredményeként ezt az interfészt nem csak az A100 grafikus gyorsítók, hanem az NVMe protokollal rendelkező szilárdtestalapú meghajtók is használják.

NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

A DGX A100 mellett az NVIDIA megkezdte partnereinek HGX A100 lapokkal való ellátását, amelyek a többi gyártó által önállóan gyártott szerverrendszerek egyik összetevője. Egyetlen HGX A100 kártya négy vagy nyolc NVIDIA A100 GPU befogadására képes. Ezenkívül saját igényeire az NVIDIA már összeállította a DGX SuperPOD-ot - egy 140 DGX A100 rendszerből álló klasztert, amely 700 petaflops teljesítményt nyújt meglehetősen szerény méretekkel. A cég ígéretet tett arra, hogy módszertani segítséget nyújt azoknak a partnereknek, akik a DGX A100 alapján hasonló számítástechnikai klasztereket szeretnének építeni. Az NVIDIA-nak egyébként az ilyen feladatokra jellemző több hónap vagy akár év helyett legfeljebb egy hónapig tartott a DGX SuperPOD elkészítése.

NVIDIA DGX A100: a debütáló Amper-alapú platform öt petaflop teljesítményt kínál

Az NVIDIA szerint a DGX A100 kiszállítása már 199 000 dolláros példányonkénti áron megkezdődött, a cég partnerei már üzemeltetik ezeket a rendszereket felhőfürtjeikben, az ökoszisztéma már 26 országot fed le, köztük Vietnamot és az Egyesült Arab Emirátusokat is. Emellett az Ampere architektúrájú grafikus megoldások előre láthatóan a Perlmutter szuperszámítógép-rendszer részét képezik, amelyet Cray készített az Egyesült Államok Energiaügyi Minisztériuma számára. NVIDIA Ampere grafikus processzorokból, valamint Zen 3 architektúrájú AMD EPYC Milan generációs központi processzorokból áll majd.Az NVIDIA Ampere alapú szuperszámítógép-csomópontok az év második felében érik el a vásárlót, bár az első példányok már megérkeztek a gyár speciális laboratóriumába. az amerikai részleg.



Forrás: 3dnews.ru

Hozzászólás