5.8 miliona IOPS: zašto toliko?

Zdravo Habr! Skupovi podataka za velike podatke i strojno učenje rastu eksponencijalno i moramo ih pratiti. Naš post o još jednoj inovativnoj tehnologiji u oblasti računarstva visokih performansi (HPC, High Performance Computing), prikazan na štandu Kingstona u Superkompjuterstvo-2019. Ovo je upotreba Hi-End sistema za skladištenje podataka (SDS) u serverima sa grafičkim procesorskim jedinicama (GPU) i GPUDirect Storage bus tehnologijom. Zahvaljujući direktnoj razmjeni podataka između sustava za pohranu podataka i GPU-a, zaobilazeći CPU, učitavanje podataka u GPU akceleratore je ubrzano za red veličine, tako da aplikacije Big Data rade s maksimalnim performansama koje GPU-ovi pružaju. Zauzvrat, programeri HPC sistema zainteresovani su za napredak u sistemima za skladištenje podataka sa najvećim I/O brzinama, kao što su oni koje proizvodi Kingston.

5.8 miliona IOPS: zašto toliko?

Performanse GPU-a nadmašuju učitavanje podataka

Otkako je 2007. stvorena CUDA, hardverska i softverska paralelna računarska arhitektura zasnovana na GPU-u za razvoj aplikacija opšte namene, hardverske mogućnosti samih GPU-a su neverovatno porasle. Danas se GPU-ovi sve više koriste u HPC aplikacijama kao što su Big Data, mašinsko učenje (ML) i duboko učenje (DL).

Imajte na umu da su, uprkos sličnosti pojmova, posljednja dva algoritamski različita zadatka. ML trenira računar na osnovu strukturiranih podataka, dok DL trenira računar na osnovu povratnih informacija iz neuronske mreže. Primjer koji pomaže u razumijevanju razlika je prilično jednostavan. Pretpostavimo da kompjuter mora razlikovati fotografije mačaka i pasa koje se učitavaju iz sistema za skladištenje podataka. Za ML, trebali biste poslati skup slika s mnogo oznaka, od kojih svaka definira jednu posebnu osobinu životinje. Za DL je dovoljno postaviti mnogo veći broj slika, ali sa samo jednom oznakom “ovo je mačka” ili “ovo je pas”. DL je vrlo sličan tome kako se mala djeca uče - jednostavno im se prikazuju slike pasa i mačaka u knjigama i u životu (najčešće, čak i bez objašnjenja detaljne razlike), a djetetov mozak sam počinje određivati ​​vrstu životinje nakon određeni kritičan broj slika za poređenje (Prema procjenama, riječ je o svega sto-dvije emisije u ranom djetinjstvu). DL algoritmi još nisu tako savršeni: da bi neuronska mreža također uspješno radila na identifikaciji slika, potrebno je ubaciti i obraditi milione slika u GPU.

Sažetak predgovora: na osnovu GPU-a možete izgraditi HPC aplikacije u oblasti velikih podataka, ML i DL, ali postoji problem - skupovi podataka su toliko veliki da je vrijeme utrošeno na učitavanje podataka iz sistema za pohranu u GPU počinje da smanjuje ukupne performanse aplikacije. Drugim riječima, brzi GPU-ovi ostaju nedovoljno iskorišteni zbog sporih I/O podataka koji dolaze iz drugih podsistema. Razlika u I/O brzini GPU-a i magistrale do CPU/sistema za skladištenje može biti reda veličine.

Kako funkcioniše GPUDirect Storage tehnologija?

I/O procesom upravlja CPU, kao i proces učitavanja podataka iz skladišta u GPU za dalju obradu. To je dovelo do zahtjeva za tehnologijom koja bi omogućila direktan pristup između GPU-a i NVMe diskova za brzu međusobnu komunikaciju. NVIDIA je prva ponudila takvu tehnologiju i nazvala je GPUDirect Storage. U stvari, ovo je varijacija GPUDirect RDMA (Remote Direct Memory Address) tehnologije koju su prethodno razvili.

5.8 miliona IOPS: zašto toliko?
Jensen Huang, izvršni direktor NVIDIA-e, predstaviće GPUDirect Storage kao varijantu GPUDirect RDMA na SC-19. Izvor: NVIDIA

Razlika između GPUDirect RDMA i GPUDirect Storagea je u uređajima između kojih se vrši adresiranje. GPUDirect RDMA tehnologija je prenamijenjena za premještanje podataka direktno između prednje mrežne kartice (NIC) i GPU memorije, a GPUDirect Storage pruža direktnu putanju podataka između lokalne ili udaljene memorije kao što je NVMe ili NVMe preko Fabric (NVMe-oF) i GPU memorija.

I GPUDirect RDMA i GPUDirect Storage izbjegavaju nepotrebna kretanja podataka kroz međuspremnik u CPU memoriji i omogućavaju mehanizmu direktnog pristupa memoriji (DMA) da premješta podatke s mrežne kartice ili skladišta direktno u ili iz GPU memorije - sve bez opterećenja na centralnom CPU-u. Za GPUDirect Storage, lokacija skladišta nije bitna: to može biti NVME disk unutar GPU jedinice, unutar stalka ili povezan preko mreže kao NVMe-oF.

5.8 miliona IOPS: zašto toliko?
Šema rada GPUDirect Storage. Izvor: NVIDIA

Hi-End sistemi za skladištenje na NVMe su traženi na tržištu HPC aplikacija

Shvativši da će s pojavom GPUDirect Storage-a interesovanje velikih kupaca biti privučeno ponudi sistema za skladištenje sa I/O brzinama koje odgovaraju propusnosti GPU-a, Kingston je na izložbi SC-19 pokazao demo sistema koji se sastoji od sistem za skladištenje zasnovan na NVMe diskovima i jedinici sa GPU, koja je analizirala hiljade satelitskih slika u sekundi. Već smo pisali o ovakvom sistemu skladištenja zasnovanom na 10 DC1000M U.2 NVMe drajvova u izvještaju sa izložbe superkompjutera.

5.8 miliona IOPS: zašto toliko?
Sistem za skladištenje podataka baziran na 10 DC1000M U.2 NVMe drajvova adekvatno nadopunjuje server sa grafičkim akceleratorima. Izvor: Kingston

Ovaj sistem za skladištenje je dizajniran kao rek jedinica od 1U ili veća i može se skalirati u zavisnosti od broja DC1000M U.2 NVMe uređaja, svaki kapaciteta 3.84-7.68 TB. DC1000M je prvi NVMe SSD model u faktoru U.2 forme u Kingstonovoj liniji pogona za data centar. Ima ocjenu izdržljivosti (DWPD, Drive upisuje po danu), što mu omogućava da prepisuje podatke do svog punog kapaciteta jednom dnevno za garantovani vijek trajanja pogona.

U testu fio v3.13 na Ubuntu 18.04.3 LTS operativnom sistemu, Linux kernel 5.0.0-31-generic, uzorak izložbenog skladišta pokazao je brzinu čitanja (Sustained Read) od 5.8 miliona IOPS sa održivim protokom (Sustained Bandwidth ) od 23.8 Gbit/s.

Ariel Perez, SSD poslovni menadžer u Kingstonu, rekao je o novim sistemima za skladištenje: „Spremni smo da opremimo sledeću generaciju servera U.2 NVMe SSD rešenjima kako bismo eliminisali mnoga uska grla u prenosu podataka koja su tradicionalno bila povezana sa skladištenjem podataka. Kombinacija NVMe SSD diskova i našeg vrhunskog Server Premier DRAM-a čini Kingston jednim od najsveobuhvatnijih dobavljača rješenja za prijenos podataka s kraja na kraj."

5.8 miliona IOPS: zašto toliko?
Gfio v3.13 test je pokazao propusnost od 23.8 Gbps za demo sistem skladištenja na DC1000M U.2 NVMe drajvovima. Izvor: Kingston

Kako bi izgledao tipičan sistem za HPC aplikacije koristeći GPUDirect Storage ili sličnu tehnologiju? Ovo je arhitektura sa fizičkim razdvajanjem funkcionalnih jedinica unutar stalka: jedna ili dvije jedinice za RAM, još nekoliko za GPU i CPU računarske čvorove i jedna ili više jedinica za sisteme za skladištenje.

Sa najavom GPUDirect Storage-a i mogućom pojavom sličnih tehnologija od drugih proizvođača GPU-a, Kingstonova potražnja za sistemima za skladištenje dizajniranim za upotrebu u računarstvu visokih performansi se širi. Marker će biti brzina čitanja podataka iz sistema za skladištenje podataka, uporediva sa propusnošću mrežnih kartica od 40 ili 100 Gbit na ulazu u računarsku jedinicu sa GPU-om. Stoga će sistemi za skladištenje podataka ultra velike brzine, uključujući eksterni NVMe preko Fabric-a, od egzotičnih postati mainstream za HPC aplikacije. Pored nauke i finansijskih proračuna, naći će primenu u mnogim drugim praktičnim oblastima, kao što su sigurnosni sistemi na nivou metropola Sigurnog grada ili centri za nadzor transporta, gde su potrebne brzine prepoznavanja i identifikacije od miliona HD slika u sekundi”, ističe se. tržišna niša vrhunskog Storage sistema

Više informacija o Kingston proizvodima možete pronaći na službena web stranica kompanija.

izvor: www.habr.com

Dodajte komentar