Pozdrav Habr! Skupovi podataka za Big Data i strojno učenje eksponencijalno rastu i moramo držati korak s njima. Naš post o još jednoj inovativnoj tehnologiji u području računalstva visokih performansi (HPC, High Performance Computing), prikazanoj na štandu Kingstona na
GPU performanse nadmašuju učitavanje podataka
Otkako je 2007. stvorena CUDA, hardverska i softverska paralelna računalna arhitektura temeljena na GPU-u za razvoj aplikacija opće namjene, hardverske mogućnosti samih GPU-a nevjerojatno su porasle. Danas se GPU-ovi sve više koriste u HPC aplikacijama kao što su Big Data, strojno učenje (ML) i duboko učenje (DL).
Imajte na umu da su, unatoč sličnosti izraza, posljednja dva algoritamski različita zadatka. ML trenira računalo na temelju strukturiranih podataka, dok DL trenira računalo na temelju povratnih informacija iz neuronske mreže. Primjer koji pomaže razumjeti razlike je vrlo jednostavan. Pretpostavimo da računalo mora razlikovati fotografije mačaka i pasa koje su učitane iz sustava za pohranu. Za ML biste trebali poslati skup slika s mnogo oznaka, od kojih svaka definira jednu osobinu životinje. Za DL je dovoljno uploadati mnogo veći broj slika, ali sa samo jednom oznakom “ovo je mačka” ili “ovo je pas”. DL je vrlo sličan onome kako se podučava mala djeca - jednostavno im se pokažu slike pasa i mačaka u knjigama iu životu (najčešće, čak i bez objašnjenja detaljne razlike), a djetetov mozak sam počinje određivati vrstu životinje nakon određeni kritični broj slika za usporedbu ( Prema procjenama, riječ je o svega stotinjak ili dvije predstave kroz rano djetinjstvo). DL algoritmi još nisu tako savršeni: da bi neuronska mreža također uspješno radila na identificiranju slika, potrebno je unijeti i obraditi milijune slika u GPU.
Sažetak predgovora: na temelju GPU-a možete graditi HPC aplikacije u području Big Data, ML i DL, ali postoji problem - skupovi podataka toliko su veliki da je vrijeme potrošeno na učitavanje podataka iz sustava za pohranu u GPU počinje smanjivati ukupnu izvedbu aplikacije. Drugim riječima, brzi GPU-ovi ostaju nedovoljno iskorišteni zbog sporih I/O podataka koji dolaze iz drugih podsustava. Razlika u I/O brzini GPU-a i sabirnice do CPU-a/sustava za pohranu može biti reda veličine.
Kako radi tehnologija GPUDirect Storage?
I/O procesom upravlja CPU, kao i procesom učitavanja podataka iz pohrane u GPU za daljnju obradu. To je dovelo do zahtjeva za tehnologijom koja bi omogućila izravan pristup između GPU-a i NVMe pogona za brzu međusobnu komunikaciju. NVIDIA je prva ponudila takvu tehnologiju i nazvala ju je GPUDirect Storage. Zapravo, ovo je varijacija tehnologije GPUDirect RDMA (Remote Direct Memory Address) koju su prethodno razvili.
Jensen Huang, izvršni direktor NVIDIA-e, predstavit će GPUDirect Storage kao varijantu GPUDirect RDMA na SC-19. Izvor: NVIDIA
Razlika između GPUDirect RDMA i GPUDirect Storage je u uređajima između kojih se vrši adresiranje. Tehnologija GPUDirect RDMA prenamijenjena je za izravno premještanje podataka između kartice prednjeg mrežnog sučelja (NIC) i GPU memorije, a GPUDirect Storage pruža izravan put podataka između lokalne ili udaljene pohrane kao što je NVMe ili NVMe over Fabric (NVMe-oF) i GPU memorija.
I GPUDirect RDMA i GPUDirect Storage izbjegavaju nepotrebna kretanja podataka kroz međuspremnik u CPU memoriji i dopuštaju mehanizmu izravnog pristupa memoriji (DMA) premještanje podataka s mrežne kartice ili pohrane izravno u ili iz GPU memorije - sve bez opterećenja središnjeg CPU-a. Za GPUDirect Storage, lokacija pohrane nije važna: to može biti NVME disk unutar GPU jedinice, unutar police ili povezan preko mreže kao NVMe-oF.
Shema rada GPUDirect Storage. Izvor: NVIDIA
Hi-End sustavi pohrane na NVMe traženi su na tržištu HPC aplikacija
Uvidjevši da će s dolaskom GPUDirect Storagea interes velikih kupaca biti privučen nuđenjem sustava za pohranu podataka s I/O brzinama koje odgovaraju propusnosti GPU-a, Kingston je na izložbi SC-19 pokazao demonstraciju sustava koji se sastoji od sustav za pohranu temeljen na NVMe diskovima i jedinici s GPU-om, koji je analizirao tisuće satelitskih slika u sekundi. Već smo pisali o takvom sustavu pohrane temeljenom na 10 DC1000M U.2 NVMe diskova
Sustav za pohranu temeljen na 10 DC1000M U.2 NVMe pogona adekvatno nadopunjuje poslužitelj s grafičkim akceleratorima. Izvor: Kingston
Ovaj sustav za pohranu je dizajniran kao 1U ili veća rack jedinica i može se skalirati ovisno o broju DC1000M U.2 NVMe diskova, svaki s kapacitetom od 3.84-7.68 TB. DC1000M je prvi NVMe SSD model u faktoru forme U.2 u Kingstonovoj liniji pogona za podatkovne centre. Ima ocjenu izdržljivosti (DWPD, Drive piše po danu), što mu omogućuje ponovno pisanje podataka u punom kapacitetu jednom dnevno tijekom zajamčenog vijeka trajanja pogona.
U fio v3.13 testu na Ubuntu 18.04.3 LTS operativnom sustavu, Linux kernelu 5.0.0-31-generic, izložbeni uzorak pohrane pokazao je brzinu čitanja (Sustained Read) od 5.8 milijuna IOPS-a uz održivu propusnost (Sustained Bandwidth ) od 23.8 Gbit/s.
Ariel Perez, SSD poslovni menadžer u Kingstonu, rekao je o novim sustavima za pohranu: “Spremni smo opremiti sljedeću generaciju poslužitelja s U.2 NVMe SSD rješenjima kako bismo uklonili mnoga uska grla u prijenosu podataka koja su tradicionalno povezana s pohranom. Kombinacija NVMe SSD pogona i našeg premium Server Premier DRAM-a čini Kingston jednim od najopsežnijih dobavljača end-to-end podatkovnih rješenja u industriji."
Test gfio v3.13 pokazao je propusnost od 23.8 Gbps za demo sustav pohrane na DC1000M U.2 NVMe diskovima. Izvor: Kingston
Kako bi izgledao tipičan sustav za HPC aplikacije uz korištenje GPUDirect Storage ili slične tehnologije? Ovo je arhitektura s fizičkim odvajanjem funkcionalnih jedinica unutar stalka: jedna ili dvije jedinice za RAM, još nekoliko za GPU i CPU računalne čvorove i jedna ili više jedinica za sustave za pohranu.
S najavom GPUDirect Storage i mogućim pojavljivanjem sličnih tehnologija od drugih dobavljača GPU-a, Kingstonova potražnja za sustavima za pohranu dizajniranim za korištenje u računalstvu visokih performansi raste. Oznaka će biti brzina čitanja podataka iz sustava za pohranu, usporediva s propusnošću mrežnih kartica od 40 ili 100 Gbita na ulazu u računalnu jedinicu s GPU-om. Stoga će sustavi za pohranu ultra velike brzine, uključujući vanjski NVMe putem Fabrica, iz egzotičnih postati uobičajeni za HPC aplikacije. Osim u znanosti i financijskim izračunima, oni će naći primjenu u mnogim drugim praktičnim područjima, kao što su sigurnosni sustavi na metropolitanskoj razini Safe City ili centri za nadzor prometa, gdje su potrebne brzine prepoznavanja i identifikacije od milijuna HD slika u sekundi,” istaknuo je. tržišnu nišu vrhunskog Storage sustava
Više informacija o Kingston proizvodima možete pronaći na
Izvor: www.habr.com