5.8 milions d'IOPS: per què tant?

Hola Habr! Els conjunts de dades per a Big Data i aprenentatge automàtic estan creixent de manera exponencial i hem d'estar al dia. La nostra publicació sobre una altra tecnologia innovadora en el camp de la informàtica d'alt rendiment (HPC, High Performance Computing), mostrada a l'estand de Kingston a Supercomputació-2019. Es tracta de l'ús de sistemes d'emmagatzematge de dades (SDS) Hi-End en servidors amb unitats de processament gràfic (GPU) i tecnologia de bus d'emmagatzematge GPUDirect. Gràcies a l'intercanvi directe de dades entre el sistema d'emmagatzematge i la GPU, sense passar per la CPU, la càrrega de dades als acceleradors de la GPU s'accelera en un ordre de magnitud, de manera que les aplicacions Big Data funcionen amb el màxim rendiment que proporcionen les GPU. Al seu torn, els desenvolupadors de sistemes HPC estan interessats en els avenços en sistemes d'emmagatzematge amb les velocitats d'E/S més altes, com els produïts per Kingston.

5.8 milions d'IOPS: per què tant?

El rendiment de la GPU supera la càrrega de dades

Des que l'any 2007 es va crear CUDA, una arquitectura de computació paral·lela de maquinari i programari basada en GPU per desenvolupar aplicacions de propòsit general, les capacitats de maquinari de les mateixes GPU han crescut de manera increïble. Avui dia, les GPU s'utilitzen cada cop més en aplicacions HPC com ara Big Data, aprenentatge automàtic (ML) i aprenentatge profund (DL).

Tingueu en compte que, malgrat la semblança de termes, els dos últims són tasques algorítmicament diferents. ML entrena l'ordinador a partir de dades estructurades, mentre que DL entrena l'ordinador a partir de la retroalimentació d'una xarxa neuronal. Un exemple per ajudar a entendre les diferències és bastant senzill. Suposem que l'ordinador ha de distingir entre les fotos de gats i gossos que es carreguen des del sistema d'emmagatzematge. Per a ML, hauríeu d'enviar un conjunt d'imatges amb moltes etiquetes, cadascuna de les quals defineix una característica particular de l'animal. Per a DL, n'hi ha prou amb pujar un nombre molt més gran d'imatges, però amb una sola etiqueta "això és un gat" o "això és un gos". El DL és molt semblant a com s'ensenya als nens petits: simplement se'ls mostren imatges de gossos i gats als llibres i a la vida (la majoria de vegades, sense ni tan sols explicar la diferència detallada), i el propi cervell del nen comença a determinar el tipus d'animal després un cert nombre crític d'imatges per comparar (segons estimacions, només estem parlant d'un centenar o dos espectacles durant la primera infància). Els algorismes de DL encara no són tan perfectes: perquè una xarxa neuronal també funcioni amb èxit en la identificació d'imatges, és necessari alimentar i processar milions d'imatges a la GPU.

Resum del prefaci: basat en les GPU, podeu crear aplicacions HPC en el camp de Big Data, ML i DL, però hi ha un problema: els conjunts de dades són tan grans que el temps dedicat a carregar dades des del sistema d'emmagatzematge a la GPU comença a reduir el rendiment global de l'aplicació. En altres paraules, les GPU ràpides continuen infrautilitzades a causa de les dades d'E/S lentes que provenen d'altres subsistemes. La diferència de velocitat d'E/S de la GPU i el bus a la CPU/sistema d'emmagatzematge pot ser d'un ordre de magnitud.

Com funciona la tecnologia d'emmagatzematge GPUDirect?

El procés d'E/S està controlat per la CPU, igual que el procés de càrrega de dades des de l'emmagatzematge a les GPU per a un processament posterior. Això va provocar una sol·licitud de tecnologia que proporcionés accés directe entre les GPU i les unitats NVMe per comunicar-se ràpidament entre elles. NVIDIA va ser la primera a oferir aquesta tecnologia i la va anomenar GPUDirect Storage. De fet, es tracta d'una variació de la tecnologia GPUDirect RDMA (Remote Direct Memory Address) que van desenvolupar anteriorment.

5.8 milions d'IOPS: per què tant?
Jensen Huang, CEO de NVIDIA, presentarà GPUDirect Storage com una variant de GPUDirect RDMA a SC-19. Font: NVIDIA

La diferència entre GPUDirect RDMA i GPUDirect Storage està en els dispositius entre els quals es realitza l'adreçament. La tecnologia GPUDirect RDMA es reutilitza per moure dades directament entre la targeta d'interfície de xarxa frontal (NIC) i la memòria de la GPU, i GPUDirect Storage proporciona un camí de dades directe entre l'emmagatzematge local o remot, com ara NVMe o NVMe sobre Fabric (NVMe-oF) i Memòria GPU.

Tant GPUDirect RDMA com GPUDirect Storage eviten moviments de dades innecessaris a través d'un buffer a la memòria de la CPU i permeten que el mecanisme d'accés directe a la memòria (DMA) mogui les dades de la targeta de xarxa o l'emmagatzematge directament cap a o des de la memòria de la GPU, tot sense càrrega a la CPU central. Per a l'emmagatzematge GPUDirect, la ubicació de l'emmagatzematge no importa: pot ser un disc NVME dins d'una unitat GPU, dins d'un bastidor o connectat a la xarxa com a NVMe-oF.

5.8 milions d'IOPS: per què tant?
Esquema de funcionament de GPUDirect Storage. Font: NVIDIA

Els sistemes d'emmagatzematge d'alta gamma a NVMe tenen demanda al mercat d'aplicacions HPC

En adonar-se que amb l'arribada de GPUDirect Storage, l'interès dels grans clients es veurà atret per oferir sistemes d'emmagatzematge amb velocitats d'E/S corresponents al rendiment de la GPU, a l'exposició SC-19 Kingston va mostrar una demostració d'un sistema que consta d'un sistema d'emmagatzematge basat en discs NVMe i una unitat amb una GPU, que analitzava milers d'imatges de satèl·lit per segon. Ja hem escrit sobre aquest sistema d'emmagatzematge basat en 10 unitats NVMe DC1000M U.2 en un reportatge de l'exposició de superordinadors.

5.8 milions d'IOPS: per què tant?
Un sistema d'emmagatzematge basat en 10 unitats DC1000M U.2 NVMe complementa adequadament un servidor amb acceleradors gràfics. Font: Kingston

Aquest sistema d'emmagatzematge està dissenyat com una unitat de bastidor d'1U o més gran i es pot escalar en funció del nombre de unitats NVMe DC1000M U.2, cadascuna amb una capacitat de 3.84-7.68 TB. El DC1000M és el primer model SSD NVMe en el factor de forma U.2 de la línia d'unitats de centre de dades de Kingston. Té una qualificació de resistència (DWPD, escriptures d'unitat per dia), que li permet reescriure les dades a la seva capacitat total un cop al dia durant la vida útil garantida de la unitat.

A la prova fio v3.13 del sistema operatiu Ubuntu 18.04.3 LTS, nucli Linux 5.0.0-31-genèric, la mostra d'emmagatzematge de l'exposició va mostrar una velocitat de lectura (lectura sostinguda) de 5.8 milions d'IOPS amb un rendiment sostenible (amplada de banda sostinguda). ) de 23.8 Gbit/s.

Ariel Perez, gerent de negoci SSD de Kingston, va dir sobre els nous sistemes d'emmagatzematge: "Estem a punt per equipar la propera generació de servidors amb solucions U.2 NVMe SSD per eliminar molts dels colls d'ampolla de transferència de dades que tradicionalment s'han associat amb l'emmagatzematge. La combinació de les unitats SSD NVMe i la nostra DRAM Premium Server Premier fa de Kingston un dels proveïdors de solucions de dades d'extrem a extrem més complets del sector".

5.8 milions d'IOPS: per què tant?
La prova gfio v3.13 va mostrar un rendiment de 23.8 Gbps per al sistema d'emmagatzematge de demostració a les unitats DC1000M U.2 NVMe. Font: Kingston

Com seria un sistema típic per a aplicacions HPC amb GPUDirect Storage o tecnologia similar? Es tracta d'una arquitectura amb una separació física d'unitats funcionals dins d'un bastidor: una o dues unitats per a RAM, diverses més per a nodes informàtics de GPU i CPU i una o més unitats per a sistemes d'emmagatzematge.

Amb l'anunci d'emmagatzematge GPUDirect i la possible aparició de tecnologies similars d'altres proveïdors de GPU, la demanda de Kingston de sistemes d'emmagatzematge dissenyats per al seu ús en informàtica d'alt rendiment s'està expandint. El marcador serà la velocitat de lectura de dades del sistema d'emmagatzematge, comparable al rendiment de les targetes de xarxa de 40 o 100 Gbit a l'entrada d'una unitat informàtica amb una GPU. Així, els sistemes d'emmagatzematge d'ultra alta velocitat, inclòs NVMe extern a través de Fabric, passaran de ser exòtics al corrent principal per a aplicacions HPC. A més dels càlculs científics i financers, trobaran aplicació en moltes altres àrees pràctiques, com ara els sistemes de seguretat a nivell metropolità de Safe City o els centres de vigilància del transport, on es requereixen velocitats de reconeixement i identificació de milions d'imatges en HD per segon", ha explicat. el nínxol de mercat del sistema d'emmagatzematge superior

Podeu trobar més informació sobre els productes de Kingston a lloc web oficial companyia.

Font: www.habr.com

Afegeix comentari