5.8 milioni di IOPS: perchè tantu?

Ciao Habr! I set di dati per Big Data è machine learning sò in crescita esponenziali è avemu bisognu di mantene cun elli. U nostru post nantu à una altra tecnulugia innovativa in u campu di l'informatica d'alta prestazione (HPC, High Performance Computing), mostrata à u stand di Kingston à Supercomputing-2019. Questu hè l'usu di i sistemi di almacenamiento di dati Hi-End (SDS) in i servitori cù unità di processazione grafica (GPU) è a tecnulugia di bus GPUDirect Storage. Grazie à u scambiu di dati direttu trà u sistema di almacenamento è a GPU, sguassendu u CPU, a carica di dati in l'acceleratori GPU hè accelerata da un ordine di grandezza, cusì l'applicazioni Big Data funzionanu à u massimu rendimentu chì e GPU furniscenu. À u turnu, i sviluppatori di u sistema HPC sò interessate à l'avanzati in i sistemi di almacenamentu cù a più alta velocità I / O, cum'è quelli pruduciuti da Kingston.

5.8 milioni di IOPS: perchè tantu?

U rendiment GPU supera a carica di dati

Dapoi a creazione di CUDA, una architettura di computazione parallela hardware-software basata in GPU per u sviluppu di applicazioni generale, in u 2007, e capacità hardware di e GPU stessi sò cresciute incredibilmente. Oghje, i GPU sò sempre più usati in applicazioni HPC cum'è Big Data, machine learning (ML) è deep learning (DL).

Innota chì, malgradu a similitudine di termini, l'ultimi dui sò compiti algoritmicamente differenti. ML furmà l'urdinatore basatu nantu à dati strutturati, mentri DL furmà l'urdinatore basatu nantu à feedback da una rete neurale. Un esempiu per aiutà à capisce e differenzi hè abbastanza simplice. Assumimu chì l'urdinatore deve distingue trà e foto di i misgi è i cani chì sò carricati da u sistema di almacenamiento. Per ML, duvete invià un inseme d'imaghjini cù parechje tag, ognuna di quali definisce una funzione particulari di l'animali. Per DL ​​hè abbastanza per carricà un numeru assai più grande di imagine, ma cù una sola tag "questu hè un gattu" o "questu hè un cane". DL hè assai simili à cumu si insegnanu i zitelli - sò simpricimenti mostrati ritratti di cani è misgi in i libri è in a vita (a maiò spessu, senza ancu spiegà a diferenza dettagliata), è u cervellu di u zitellu stessu cumencia à determinà u tipu d'animali dopu. un certu nùmeru criticu di stampi per paragunà (Secunnu stimi, parlemu solu di centu o dui spettaculi in tutta a prima zitiddina). L'algoritmi DL ùn sò micca cusì perfetti: per una rete neurale per travaglià ancu cù successu in l'identità di l'imaghjini, hè necessariu d'alimentà è di processà milioni d'imaghjini in a GPU.

Riassuntu di a prefazione: basatu nantu à GPU, pudete custruisce applicazioni HPC in u campu di Big Data, ML è DL, ma ci hè un prublema - i setti di dati sò cusì grande chì u tempu passatu à carica dati da u sistema di almacenamiento à a GPU. principia à riduce u rendiment generale di l'applicazione. In altri palori, i GPU veloci restanu sottoutilizati per via di lenti dati I / O chì venenu da altri sottosistemi. A diffarenza in a veloce I / O di a GPU è u bus à u CPU / sistema di almacenamento pò esse un ordine di grandezza.

Cumu funziona a tecnulugia di almacenamiento GPUDirect?

U prucessu I / O hè cuntrullatu da u CPU, cum'è u prucessu di carica di dati da l'almacenamiento à e GPU per un ulteriore prucessu. Questu hà purtatu à una dumanda di tecnulugia chì furnisce un accessu direttu trà GPU è unità NVMe per cumunicà rapidamente cù l'altri. NVIDIA era u primu à offre una tale tecnulugia è l'hà chjamatu GPUDirect Storage. In fatti, questa hè una variazione di a tecnulugia GPUDirect RDMA (Remote Direct Memory Address) chì anu sviluppatu prima.

5.8 milioni di IOPS: perchè tantu?
Jensen Huang, CEO di NVIDIA, presenta GPUDirect Storage cum'è una variante di GPUDirect RDMA à SC-19. Fonte: NVIDIA

A diffarenza trà GPUDirect RDMA è GPUDirect Storage hè in i dispositi trà quale l'indirizzu hè realizatu. A tecnulugia GPUDirect RDMA hè riproposta per spustà i dati direttamente trà a carta di interfaccia di rete front-end (NIC) è a memoria GPU, è GPUDirect Storage furnisce un percorsu di dati direttu trà u almacenamentu locale o remoto, cum'è NVMe o NVMe over Fabric (NVMe-oF) è memoria GPU.

Sia GPUDirect RDMA è GPUDirect Storage evitanu movimenti di dati innecessarii attraversu un buffer in memoria di CPU è permettenu à u mecanismu d'accessu direttu à a memoria (DMA) di trasfurmà e dati da a carta di rete o di l'almacenamiento direttamente à o da a memoria GPU - tuttu senza carica nantu à u CPU centrale. Per GPUDirect Storage, u locu di l'almacenamiento ùn importa micca: pò esse un discu NVME in una unità GPU, in un rack, o cunnessu nantu à a reta cum'è NVMe-oF.

5.8 milioni di IOPS: perchè tantu?
Schema di funziunamentu di GPUDirect Storage. Fonte: NVIDIA

I sistemi di almacenamiento Hi-End in NVMe sò in dumanda in u mercatu di l'applicazioni HPC

Capendu chì cù l'avventu di GPUDirect Storage, l'interessu di i grandi clienti serà attiratu à offre sistemi di almacenamento cù velocità I / O chì currispondenu à u throughput di a GPU, in l'esposizione SC-19 Kingston hà mostratu una demo di un sistema custituitu da un sistema d'almacenamiento basatu annantu à i dischi NVMe è una unità cù una GPU, chì analizò millaie d'imaghjini satellitari per seconda. Avemu digià scrittu annantu à un tali sistema di almacenamentu basatu annantu à 10 unità DC1000M U.2 NVMe in un rapportu da a mostra di supercomputer.

5.8 milioni di IOPS: perchè tantu?
Un sistema di almacenamentu basatu annantu à 10 unità DC1000M U.2 NVMe cumplementa bè un servitore cù acceleratori grafici. Fonte: Kingston

Stu sistema di almacenamiento hè cuncepitu cum'è una unità di rack 1U o più grande è pò esse scalatu secondu u numeru di unità DC1000M U.2 NVMe, ognunu cù una capacità di 3.84-7.68 TB. U DC1000M hè u primu mudellu NVMe SSD in u fattore di forma U.2 in a linea di unità di centru di dati di Kingston. Havi una valutazione di endurance (DWPD, Drive scrive per ghjornu), chì permette di riscrive e dati à a so piena capacità una volta à ghjornu per a vita garantita di u drive.

In a prova fio v3.13 nantu à u sistema operatore Ubuntu 18.04.3 LTS, Linux kernel 5.0.0-31-generic, l'esempiu di almacenamentu di mostra mostrava una velocità di lettura (Lettura Sostenuta) di 5.8 milioni di IOPS cun un throughput sustenibile (Larghezza di Banda Sostenuta). ) di 23.8 Gbit/s.

Ariel Perez, manager di l'affari SSD in Kingston, hà dettu di i novi sistemi di almacenamento: "Semu pronti à equipà a prossima generazione di servitori cù soluzioni SSD U.2 NVMe per eliminà parechji di i colli di bottiglia di trasferimentu di dati chì sò tradizionalmente assuciati cù u almacenamentu. A cumminazione di unità SSD NVMe è a nostra DRAM Premium Server Premier rende Kingston unu di i fornitori di soluzioni di dati end-to-end più cumpleti di l'industria ".

5.8 milioni di IOPS: perchè tantu?
A prova gfio v3.13 hà dimustratu un throughput di 23.8 Gbps per u sistema di almacenamiento demo in unità DC1000M U.2 NVMe. Fonte: Kingston

Cume seria un sistema tipicu per l'applicazioni HPC cù GPUDirect Storage o tecnulugia simili? Questa hè una architettura cù una separazione fisica di unità funzionali in un rack: una o duie unità per a RAM, parechje più per i nodi di computing GPU è CPU, è una o più unità per i sistemi di almacenamiento.

Cù l'annunziu di GPUDirect Storage è a pussibuli emergenza di tecnulugia simili da altri venditori di GPU, a dumanda di Kingston per i sistemi di almacenamento pensati per l'usu in l'informatica d'altu rendiment hè in espansione. U marcatore serà a velocità di lettura di dati da u sistema di almacenamiento, paragunabile à u throughput di e carte di rete di 40 o 100 Gbit à l'entrata di una unità di computing cù una GPU. Cusì, i sistemi di almacenamentu ultra-alta velocità, cumprese NVMe esternu via Fabric, passanu da esse esotici à u mainstream per l'applicazioni HPC. In più di i calculi scientifichi è finanziarii, trovanu applicazione in parechje altre aree pratiche, cum'è i sistemi di sicurezza à u livellu metropolitanu di Safe City o i centri di surviglianza di trasportu, induve a ricunniscenza è a velocità d'identificazione di milioni d'imaghjini HD per seconda sò richieste ", hà dettu. u niche mercatu di u sistema di Storage cima

Più infurmazione nantu à i prudutti Kingston pò esse truvata à situ ufficiali sucietà.

Source: www.habr.com

Add a comment