Ciao Habr! I set di dati per Big Data è machine learning sò in crescita esponenziali è avemu bisognu di mantene cun elli. U nostru post nantu à una altra tecnulugia innovativa in u campu di l'informatica d'alta prestazione (HPC, High Performance Computing), mostrata à u stand di Kingston à
U rendiment GPU supera a carica di dati
Dapoi a creazione di CUDA, una architettura di computazione parallela hardware-software basata in GPU per u sviluppu di applicazioni generale, in u 2007, e capacità hardware di e GPU stessi sò cresciute incredibilmente. Oghje, i GPU sò sempre più usati in applicazioni HPC cum'è Big Data, machine learning (ML) è deep learning (DL).
Innota chì, malgradu a similitudine di termini, l'ultimi dui sò compiti algoritmicamente differenti. ML furmà l'urdinatore basatu nantu à dati strutturati, mentri DL furmà l'urdinatore basatu nantu à feedback da una rete neurale. Un esempiu per aiutà à capisce e differenzi hè abbastanza simplice. Assumimu chì l'urdinatore deve distingue trà e foto di i misgi è i cani chì sò carricati da u sistema di almacenamiento. Per ML, duvete invià un inseme d'imaghjini cù parechje tag, ognuna di quali definisce una funzione particulari di l'animali. Per DL hè abbastanza per carricà un numeru assai più grande di imagine, ma cù una sola tag "questu hè un gattu" o "questu hè un cane". DL hè assai simili à cumu si insegnanu i zitelli - sò simpricimenti mostrati ritratti di cani è misgi in i libri è in a vita (a maiò spessu, senza ancu spiegà a diferenza dettagliata), è u cervellu di u zitellu stessu cumencia à determinà u tipu d'animali dopu. un certu nùmeru criticu di stampi per paragunà (Secunnu stimi, parlemu solu di centu o dui spettaculi in tutta a prima zitiddina). L'algoritmi DL ùn sò micca cusì perfetti: per una rete neurale per travaglià ancu cù successu in l'identità di l'imaghjini, hè necessariu d'alimentà è di processà milioni d'imaghjini in a GPU.
Riassuntu di a prefazione: basatu nantu à GPU, pudete custruisce applicazioni HPC in u campu di Big Data, ML è DL, ma ci hè un prublema - i setti di dati sò cusì grande chì u tempu passatu à carica dati da u sistema di almacenamiento à a GPU. principia à riduce u rendiment generale di l'applicazione. In altri palori, i GPU veloci restanu sottoutilizati per via di lenti dati I / O chì venenu da altri sottosistemi. A diffarenza in a veloce I / O di a GPU è u bus à u CPU / sistema di almacenamento pò esse un ordine di grandezza.
Cumu funziona a tecnulugia di almacenamiento GPUDirect?
U prucessu I / O hè cuntrullatu da u CPU, cum'è u prucessu di carica di dati da l'almacenamiento à e GPU per un ulteriore prucessu. Questu hà purtatu à una dumanda di tecnulugia chì furnisce un accessu direttu trà GPU è unità NVMe per cumunicà rapidamente cù l'altri. NVIDIA era u primu à offre una tale tecnulugia è l'hà chjamatu GPUDirect Storage. In fatti, questa hè una variazione di a tecnulugia GPUDirect RDMA (Remote Direct Memory Address) chì anu sviluppatu prima.
Jensen Huang, CEO di NVIDIA, presenta GPUDirect Storage cum'è una variante di GPUDirect RDMA à SC-19. Fonte: NVIDIA
A diffarenza trà GPUDirect RDMA è GPUDirect Storage hè in i dispositi trà quale l'indirizzu hè realizatu. A tecnulugia GPUDirect RDMA hè riproposta per spustà i dati direttamente trà a carta di interfaccia di rete front-end (NIC) è a memoria GPU, è GPUDirect Storage furnisce un percorsu di dati direttu trà u almacenamentu locale o remoto, cum'è NVMe o NVMe over Fabric (NVMe-oF) è memoria GPU.
Sia GPUDirect RDMA è GPUDirect Storage evitanu movimenti di dati innecessarii attraversu un buffer in memoria di CPU è permettenu à u mecanismu d'accessu direttu à a memoria (DMA) di trasfurmà e dati da a carta di rete o di l'almacenamiento direttamente à o da a memoria GPU - tuttu senza carica nantu à u CPU centrale. Per GPUDirect Storage, u locu di l'almacenamiento ùn importa micca: pò esse un discu NVME in una unità GPU, in un rack, o cunnessu nantu à a reta cum'è NVMe-oF.
Schema di funziunamentu di GPUDirect Storage. Fonte: NVIDIA
I sistemi di almacenamiento Hi-End in NVMe sò in dumanda in u mercatu di l'applicazioni HPC
Capendu chì cù l'avventu di GPUDirect Storage, l'interessu di i grandi clienti serà attiratu à offre sistemi di almacenamento cù velocità I / O chì currispondenu à u throughput di a GPU, in l'esposizione SC-19 Kingston hà mostratu una demo di un sistema custituitu da un sistema d'almacenamiento basatu annantu à i dischi NVMe è una unità cù una GPU, chì analizò millaie d'imaghjini satellitari per seconda. Avemu digià scrittu annantu à un tali sistema di almacenamentu basatu annantu à 10 unità DC1000M U.2 NVMe
Un sistema di almacenamentu basatu annantu à 10 unità DC1000M U.2 NVMe cumplementa bè un servitore cù acceleratori grafici. Fonte: Kingston
Stu sistema di almacenamiento hè cuncepitu cum'è una unità di rack 1U o più grande è pò esse scalatu secondu u numeru di unità DC1000M U.2 NVMe, ognunu cù una capacità di 3.84-7.68 TB. U DC1000M hè u primu mudellu NVMe SSD in u fattore di forma U.2 in a linea di unità di centru di dati di Kingston. Havi una valutazione di endurance (DWPD, Drive scrive per ghjornu), chì permette di riscrive e dati à a so piena capacità una volta à ghjornu per a vita garantita di u drive.
In a prova fio v3.13 nantu à u sistema operatore Ubuntu 18.04.3 LTS, Linux kernel 5.0.0-31-generic, l'esempiu di almacenamentu di mostra mostrava una velocità di lettura (Lettura Sostenuta) di 5.8 milioni di IOPS cun un throughput sustenibile (Larghezza di Banda Sostenuta). ) di 23.8 Gbit/s.
Ariel Perez, manager di l'affari SSD in Kingston, hà dettu di i novi sistemi di almacenamento: "Semu pronti à equipà a prossima generazione di servitori cù soluzioni SSD U.2 NVMe per eliminà parechji di i colli di bottiglia di trasferimentu di dati chì sò tradizionalmente assuciati cù u almacenamentu. A cumminazione di unità SSD NVMe è a nostra DRAM Premium Server Premier rende Kingston unu di i fornitori di soluzioni di dati end-to-end più cumpleti di l'industria ".
A prova gfio v3.13 hà dimustratu un throughput di 23.8 Gbps per u sistema di almacenamiento demo in unità DC1000M U.2 NVMe. Fonte: Kingston
Cume seria un sistema tipicu per l'applicazioni HPC cù GPUDirect Storage o tecnulugia simili? Questa hè una architettura cù una separazione fisica di unità funzionali in un rack: una o duie unità per a RAM, parechje più per i nodi di computing GPU è CPU, è una o più unità per i sistemi di almacenamiento.
Cù l'annunziu di GPUDirect Storage è a pussibuli emergenza di tecnulugia simili da altri venditori di GPU, a dumanda di Kingston per i sistemi di almacenamento pensati per l'usu in l'informatica d'altu rendiment hè in espansione. U marcatore serà a velocità di lettura di dati da u sistema di almacenamiento, paragunabile à u throughput di e carte di rete di 40 o 100 Gbit à l'entrata di una unità di computing cù una GPU. Cusì, i sistemi di almacenamentu ultra-alta velocità, cumprese NVMe esternu via Fabric, passanu da esse esotici à u mainstream per l'applicazioni HPC. In più di i calculi scientifichi è finanziarii, trovanu applicazione in parechje altre aree pratiche, cum'è i sistemi di sicurezza à u livellu metropolitanu di Safe City o i centri di surviglianza di trasportu, induve a ricunniscenza è a velocità d'identificazione di milioni d'imaghjini HD per seconda sò richieste ", hà dettu. u niche mercatu di u sistema di Storage cima
Più infurmazione nantu à i prudutti Kingston pò esse truvata à
Source: www.habr.com