5.8 milijuna IOPS: zašto toliko?

Pozdrav Habr! Skupovi podataka za Big Data i strojno učenje eksponencijalno rastu i moramo držati korak s njima. Naš post o još jednoj inovativnoj tehnologiji u području računalstva visokih performansi (HPC, High Performance Computing), prikazanoj na štandu Kingstona na Superračunalstvo-2019. Ovo je korištenje Hi-End sustava za pohranu podataka (SDS) u poslužiteljima s grafičkim procesorskim jedinicama (GPU) i tehnologijom GPUDirect Storage bus. Zahvaljujući izravnoj razmjeni podataka između sustava za pohranu i GPU-a, zaobilazeći CPU, učitavanje podataka u GPU akceleratore ubrzano je za red veličine, tako da Big Data aplikacije rade s maksimalnim performansama koje GPU-i pružaju. S druge strane, programeri HPC sustava zainteresirani su za napredak u sustavima za pohranu s najvećim I/O brzinama, poput onih koje proizvodi Kingston.

5.8 milijuna IOPS: zašto toliko?

GPU performanse nadmašuju učitavanje podataka

Otkako je 2007. stvorena CUDA, hardverska i softverska paralelna računalna arhitektura temeljena na GPU-u za razvoj aplikacija opće namjene, hardverske mogućnosti samih GPU-a nevjerojatno su porasle. Danas se GPU-ovi sve više koriste u HPC aplikacijama kao što su Big Data, strojno učenje (ML) i duboko učenje (DL).

Imajte na umu da su, unatoč sličnosti izraza, posljednja dva algoritamski različita zadatka. ML trenira računalo na temelju strukturiranih podataka, dok DL trenira računalo na temelju povratnih informacija iz neuronske mreže. Primjer koji pomaže razumjeti razlike je vrlo jednostavan. Pretpostavimo da računalo mora razlikovati fotografije mačaka i pasa koje su učitane iz sustava za pohranu. Za ML biste trebali poslati skup slika s mnogo oznaka, od kojih svaka definira jednu osobinu životinje. Za DL je dovoljno uploadati mnogo veći broj slika, ali sa samo jednom oznakom “ovo je mačka” ili “ovo je pas”. DL je vrlo sličan onome kako se podučava mala djeca - jednostavno im se pokažu slike pasa i mačaka u knjigama iu životu (najčešće, čak i bez objašnjenja detaljne razlike), a djetetov mozak sam počinje određivati ​​vrstu životinje nakon određeni kritični broj slika za usporedbu ( Prema procjenama, riječ je o svega stotinjak ili dvije predstave kroz rano djetinjstvo). DL algoritmi još nisu tako savršeni: da bi neuronska mreža također uspješno radila na identificiranju slika, potrebno je unijeti i obraditi milijune slika u GPU.

Sažetak predgovora: na temelju GPU-a možete graditi HPC aplikacije u području Big Data, ML i DL, ali postoji problem - skupovi podataka toliko su veliki da je vrijeme potrošeno na učitavanje podataka iz sustava za pohranu u GPU počinje smanjivati ​​ukupnu izvedbu aplikacije. Drugim riječima, brzi GPU-ovi ostaju nedovoljno iskorišteni zbog sporih I/O podataka koji dolaze iz drugih podsustava. Razlika u I/O brzini GPU-a i sabirnice do CPU-a/sustava za pohranu može biti reda veličine.

Kako radi tehnologija GPUDirect Storage?

I/O procesom upravlja CPU, kao i procesom učitavanja podataka iz pohrane u GPU za daljnju obradu. To je dovelo do zahtjeva za tehnologijom koja bi omogućila izravan pristup između GPU-a i NVMe pogona za brzu međusobnu komunikaciju. NVIDIA je prva ponudila takvu tehnologiju i nazvala ju je GPUDirect Storage. Zapravo, ovo je varijacija tehnologije GPUDirect RDMA (Remote Direct Memory Address) koju su prethodno razvili.

5.8 milijuna IOPS: zašto toliko?
Jensen Huang, izvršni direktor NVIDIA-e, predstavit će GPUDirect Storage kao varijantu GPUDirect RDMA na SC-19. Izvor: NVIDIA

Razlika između GPUDirect RDMA i GPUDirect Storage je u uređajima između kojih se vrši adresiranje. Tehnologija GPUDirect RDMA prenamijenjena je za izravno premještanje podataka između kartice prednjeg mrežnog sučelja (NIC) i GPU memorije, a GPUDirect Storage pruža izravan put podataka između lokalne ili udaljene pohrane kao što je NVMe ili NVMe over Fabric (NVMe-oF) i GPU memorija.

I GPUDirect RDMA i GPUDirect Storage izbjegavaju nepotrebna kretanja podataka kroz međuspremnik u CPU memoriji i dopuštaju mehanizmu izravnog pristupa memoriji (DMA) premještanje podataka s mrežne kartice ili pohrane izravno u ili iz GPU memorije - sve bez opterećenja središnjeg CPU-a. Za GPUDirect Storage, lokacija pohrane nije važna: to može biti NVME disk unutar GPU jedinice, unutar police ili povezan preko mreže kao NVMe-oF.

5.8 milijuna IOPS: zašto toliko?
Shema rada GPUDirect Storage. Izvor: NVIDIA

Hi-End sustavi pohrane na NVMe traženi su na tržištu HPC aplikacija

Uvidjevši da će s dolaskom GPUDirect Storagea interes velikih kupaca biti privučen nuđenjem sustava za pohranu podataka s I/O brzinama koje odgovaraju propusnosti GPU-a, Kingston je na izložbi SC-19 pokazao demonstraciju sustava koji se sastoji od sustav za pohranu temeljen na NVMe diskovima i jedinici s GPU-om, koji je analizirao tisuće satelitskih slika u sekundi. Već smo pisali o takvom sustavu pohrane temeljenom na 10 DC1000M U.2 NVMe diskova u izvješću s izložbe superračunala.

5.8 milijuna IOPS: zašto toliko?
Sustav za pohranu temeljen na 10 DC1000M U.2 NVMe pogona adekvatno nadopunjuje poslužitelj s grafičkim akceleratorima. Izvor: Kingston

Ovaj sustav za pohranu je dizajniran kao 1U ili veća rack jedinica i može se skalirati ovisno o broju DC1000M U.2 NVMe diskova, svaki s kapacitetom od 3.84-7.68 TB. DC1000M je prvi NVMe SSD model u faktoru forme U.2 u Kingstonovoj liniji pogona za podatkovne centre. Ima ocjenu izdržljivosti (DWPD, Drive piše po danu), što mu omogućuje ponovno pisanje podataka u punom kapacitetu jednom dnevno tijekom zajamčenog vijeka trajanja pogona.

U fio v3.13 testu na Ubuntu 18.04.3 LTS operativnom sustavu, Linux kernelu 5.0.0-31-generic, izložbeni uzorak pohrane pokazao je brzinu čitanja (Sustained Read) od 5.8 milijuna IOPS-a uz održivu propusnost (Sustained Bandwidth ) od 23.8 Gbit/s.

Ariel Perez, SSD poslovni menadžer u Kingstonu, rekao je o novim sustavima za pohranu: “Spremni smo opremiti sljedeću generaciju poslužitelja s U.2 NVMe SSD rješenjima kako bismo uklonili mnoga uska grla u prijenosu podataka koja su tradicionalno povezana s pohranom. Kombinacija NVMe SSD pogona i našeg premium Server Premier DRAM-a čini Kingston jednim od najopsežnijih dobavljača end-to-end podatkovnih rješenja u industriji."

5.8 milijuna IOPS: zašto toliko?
Test gfio v3.13 pokazao je propusnost od 23.8 Gbps za demo sustav pohrane na DC1000M U.2 NVMe diskovima. Izvor: Kingston

Kako bi izgledao tipičan sustav za HPC aplikacije uz korištenje GPUDirect Storage ili slične tehnologije? Ovo je arhitektura s fizičkim odvajanjem funkcionalnih jedinica unutar stalka: jedna ili dvije jedinice za RAM, još nekoliko za GPU i CPU računalne čvorove i jedna ili više jedinica za sustave za pohranu.

S najavom GPUDirect Storage i mogućim pojavljivanjem sličnih tehnologija od drugih dobavljača GPU-a, Kingstonova potražnja za sustavima za pohranu dizajniranim za korištenje u računalstvu visokih performansi raste. Oznaka će biti brzina čitanja podataka iz sustava za pohranu, usporediva s propusnošću mrežnih kartica od 40 ili 100 Gbita na ulazu u računalnu jedinicu s GPU-om. Stoga će sustavi za pohranu ultra velike brzine, uključujući vanjski NVMe putem Fabrica, iz egzotičnih postati uobičajeni za HPC aplikacije. Osim u znanosti i financijskim izračunima, oni će naći primjenu u mnogim drugim praktičnim područjima, kao što su sigurnosni sustavi na metropolitanskoj razini Safe City ili centri za nadzor prometa, gdje su potrebne brzine prepoznavanja i identifikacije od milijuna HD slika u sekundi,” istaknuo je. tržišnu nišu vrhunskog Storage sustava

Više informacija o Kingston proizvodima možete pronaći na službene web stranice Tvrtka.

Izvor: www.habr.com

Dodajte komentar