5.8 Milliounen IOPS: firwat sou vill?

Moien Habr! Datesets fir Big Data a Maschinnléieren wuessen exponentiell a mir musse mat hinnen halen. Eise Post iwwer eng aner innovativ Technologie am Beräich vun High-Performance Computing (HPC, High Performance Computing), um Kingston Stand um Supercomputing-2019. Dëst ass d'Benotzung vun Hi-End Datelagerungssystemer (SDS) a Servere mat Grafikveraarbechtungsunitéiten (GPU) an GPUDirect Storage Bus Technologie. Dank direkten Dateaustausch tëscht dem Späichersystem an der GPU, d'CPU ëmgoen, d'Luede vun Daten an d'GPU Beschleuniger beschleunegt duerch eng Uerdnung vun der Gréisst, sou datt Big Data Uwendungen mat der maximaler Leeschtung lafen déi GPUs ubidden. Am Tour sinn HPC System Entwéckler interesséiert Fortschrëtter an Stockage Systemer mat der héchster I / O Geschwindegkeet, wéi déi vun Kingston produzéiert.

5.8 Milliounen IOPS: firwat sou vill?

D'GPU Leeschtung iwwerschreift d'Datebelaaschtung

Zënter CUDA, eng GPU-baséiert Hardware a Software Parallel Rechenarchitektur fir allgemeng Zweck Uwendungen z'entwéckelen, gouf am 2007 erstallt, sinn d'Hardwarefäegkeeten vun de GPUs selwer onheemlech gewuess. Haut ginn GPUs ëmmer méi an HPC Uwendungen wéi Big Data, Maschinnléieren (ML) an Deep Learning (DL) benotzt.

Notéiert datt trotz der Ähnlechkeet vu Begrëffer déi lescht zwee algorithmesch verschidden Aufgaben sinn. ML trainéiert de Computer baséiert op strukturéierten Donnéeën, während DL trainéiert de Computer baséiert op Feedback vun engem neurale Netzwierk. E Beispill fir d'Ënnerscheeder ze verstoen ass ganz einfach. Loosst eis unhuelen datt de Computer tëscht Fotoe vu Kazen an Hënn muss ënnerscheeden, déi aus dem Späichersystem gelueden sinn. Fir ML, sollt Dir eng Rei vu Biller mat villen Tags ofginn, déi jidderee eng speziell Feature vum Déier definéiert. Fir DL geet et duer fir eng vill méi grouss Zuel vu Biller eropzelueden, awer mat just engem Tag "dëst ass eng Kaz" oder "dëst ass en Hond". DL ass ganz ähnlech wéi jonk Kanner geléiert ginn - si ginn einfach Biller vun Hënn a Kazen a Bicher an am Liewen gewisen (meeschtens, ouni iwwerhaapt den detailléierten Ënnerscheed z'erklären), an d'Kand säi Gehir selwer fänkt un d'Art vum Déier ze bestëmmen no eng gewëssen kritescher Zuel vu Biller fir de Verglach ( Laut Schätzunge schwätzen mir iwwer nëmmen honnert oder zwee Shows uechter fréi Kandheet). DL Algorithmen sinn nach net sou perfekt: fir en neuralt Netzwierk och erfollegräich ze schaffen fir Biller z'identifizéieren, ass et néideg Millioune Biller an d'GPU ze fidderen an ze veraarbecht.

Zesummefaassung vum Virwuert: baséiert op GPUs, kënnt Dir HPC Uwendungen am Beräich vu Big Data, ML an DL bauen, awer et gëtt e Problem - d'Datesätz si sou grouss datt d'Zäit verbraucht gëtt fir Daten aus dem Späichersystem op d'GPU ze lueden fänkt un d'Gesamtleistung vun der Applikatioun ze reduzéieren. An anere Wierder, séier GPUs bleiwen ënnerbenotzt wéinst luesen I / O Daten aus aneren Ënnersystemer. Den Ënnerscheed an der I / O Geschwindegkeet vun der GPU an dem Bus zum CPU / Späichersystem kann eng Gréisst sinn.

Wéi funktionnéiert d'GPUDirect Storage Technologie?

Den I/O Prozess gëtt vun der CPU kontrolléiert, sou wéi de Prozess fir Daten aus der Späichere op d'GPUs ze lueden fir weider Veraarbechtung. Dëst huet zu enger Ufro fir Technologie gefouert, déi direkten Zougang tëscht GPUs an NVMe-Fuerwer ubitt fir séier mateneen ze kommunizéieren. NVIDIA war déi éischt fir sou Technologie ze bidden an huet et GPUDirect Storage genannt. Tatsächlech ass dëst eng Variatioun vun der GPUDirect RDMA (Remote Direct Memory Address) Technologie déi se virdru entwéckelt hunn.

5.8 Milliounen IOPS: firwat sou vill?
Jensen Huang, CEO vun NVIDIA, wäert GPUDirect Storage als Variant vun GPUDirect RDMA um SC-19 presentéieren. Quell: NVIDIA

Den Ënnerscheed tëscht GPUDirect RDMA an GPUDirect Storage ass an den Apparater tëscht deenen d'Adresséierung duerchgefouert gëtt. GPUDirect RDMA Technologie gëtt repurposéiert fir Daten direkt tëscht der Front-End Network Interface Card (NIC) a GPU Memory ze bewegen, an GPUDirect Storage bitt en direkten Datewee tëscht lokalen oder Fernspeicher wéi NVMe oder NVMe iwwer Fabric (NVMe-oF) an GPU Erënnerung.

Béid GPUDirect RDMA an GPUDirect Storage vermeiden onnéideg Datenbewegungen duerch e Puffer am CPU-Erënnerung an erlaben den Direct Memory Access (DMA) Mechanismus fir Daten aus der Netzkaart oder Stockage direkt op oder aus GPU Memory ze plënneren - alles ouni Laascht op den zentrale CPU. Fir GPUDirect Storage ass d'Plaz vun der Späichere egal: et kann en NVME-Disk an enger GPU-Eenheet sinn, an engem Rack oder iwwer dem Netz als NVMe-oF verbonne sinn.

5.8 Milliounen IOPS: firwat sou vill?
Schema vun Operatioun vun GPUDirect Storage. Quell: NVIDIA

Hi-End Späichersystemer op NVMe sinn gefuerdert am HPC Applikatiounsmaart

Realiséiere datt mat der Entstoe vu GPUDirect Storage d'Interesse vu grousse Cliente gezeechent gëtt fir Späichersystemer mat I/O Geschwindegkeeten ze bidden, entspriechend dem Duerchgang vun der GPU, op der SC-19 Ausstellung Kingston huet eng Demo vun engem System gewisen, besteet aus engem Späichersystem baséiert op NVMe Disken an enger Eenheet mat enger GPU, déi Dausende vu Satellitebiller pro Sekonn analyséiert huet. Mir hu scho geschriwwen iwwer sou e Späichersystem baséiert op 10 DC1000M U.2 NVMe Drive an engem Bericht vun der Supercomputer Ausstellung.

5.8 Milliounen IOPS: firwat sou vill?
E Stockage System baséiert op 10 DC1000M U.2 NVMe fiert adequat ergänzt e Server mat Grafiken Acceleratoren. Quelle: Kingston

Dëse Späichersystem ass als 1U oder méi grouss Rack-Eenheet entworf a kann ofhängeg vun der Unzuel vun DC1000M U.2 NVMe-Laufwerke skaléiert ginn, jidderee mat enger Kapazitéit vun 3.84-7.68 TB. Den DC1000M ass den éischten NVMe SSD Modell am U.2 Formfaktor an der Kingston Linn vun Datenzenter Drive. Et huet eng Ausdauer Bewäertung (DWPD, Drive schreift pro Dag), wat et erlaabt d'Donnéeën op seng voll Kapazitéit eemol am Dag fir de garantéierte Liewensdauer vum Drive ëmzeschreiwen.

Am fio v3.13 Test am Ubuntu 18.04.3 LTS Betriebssystem, Linux Kernel 5.0.0-31-generesch, huet d'Ausstellungsspeicherprobe eng Liesgeschwindegkeet (Sustained Read) vun 5.8 Milliounen IOPS mat engem nohaltege Duerchgang (Sustained Bandwidth) gewisen ) vun 23.8 Gbit/s.

Ariel Perez, SSD Business Manager bei Kingston, sot iwwer déi nei Späichersystemer: "Mir si bereet fir déi nächst Generatioun vu Serveren mat U.2 NVMe SSD-Léisungen ze equipéieren fir vill vun den Datenübertragungsfläschen ze eliminéieren déi traditionell mat der Späichere verbonne sinn. D'Kombinatioun vun NVMe SSD-Laufwerke an eisem Premium Server Premier DRAM mécht Kingston zu engem vun den ëmfaassendsten End-to-End-Datelösungen Ubidder vun der Industrie.

5.8 Milliounen IOPS: firwat sou vill?
De gfio v3.13-Test huet en Duerchgang vun 23.8 Gbps fir den Demo-Speichersystem op DC1000M U.2 NVMe Drive gewisen. Quelle: Kingston

Wéi géif en typesche System fir HPC Uwendungen ausgesinn wéi GPUDirect Storage oder ähnlech Technologie benotzt? Dëst ass eng Architektur mat enger kierperlecher Trennung vu funktionnellen Eenheeten an engem Rack: eng oder zwou Eenheeten fir RAM, e puer méi fir GPU an CPU Rechenknäppchen, an eng oder méi Eenheeten fir Späichersystemer.

Mat der Ukënnegung vu GPUDirect Storage an der méiglecher Entstoe vun ähnlechen Technologien vun anere GPU Ubidder, gëtt d'Demande vum Kingston fir Späichersystemer entworf fir d'Benotzung an High-Performance Computing erweidert. De Marker wäert d'Geschwindegkeet vun der Liesen vun Daten aus dem Späichersystem sinn, vergläichbar mam Duerchgang vun 40- oder 100-Gbit Netzwierkkaarten bei der Entrée vun enger Recheneenheet mat enger GPU. Also, ultra-High-Speed-Speichersystemer, dorënner extern NVMe iwwer Stoff, wäerte vun exotesch an den Mainstream fir HPC Uwendungen goen. Zousätzlech zu Wëssenschaften a finanzielle Berechnungen, wäerte se Applikatioun a villen anere praktesche Beräicher fannen, sou wéi Sécherheetssystemer um Safe City Metropolniveau oder Transport Iwwerwaachungszentren, wou Unerkennungs- an Identifikatiounsgeschwindegkeet vu Millioune HD Biller pro Sekonn erfuerderlech sinn ", skizzéiert. d'Maartnisch vum Top Storage System

Méi Informatiounen iwwert Kingston Produite kann op fonnt ginn offizieller Websäit Firma.

Source: will.com

Setzt e Commentaire