5.8 milion IOPS: pse kaq shumë?

Përshëndetje Habr! Grupet e të dhënave për Big Data dhe mësimin e makinerive po rriten në mënyrë eksponenciale dhe ne duhet të vazhdojmë me to. Postimi ynë në lidhje me një tjetër teknologji inovative në fushën e informatikës me performancë të lartë (HPC, High Performance Computing), shfaqur në stendën e Kingston në Superkompjutera-2019. Ky është përdorimi i sistemeve të ruajtjes së të dhënave Hi-End (SDS) në serverë me njësi të përpunimit grafik (GPU) dhe teknologjinë e autobusit GPUDirect Storage. Falë shkëmbimit të drejtpërdrejtë të të dhënave midis sistemit të ruajtjes dhe GPU-së, duke anashkaluar CPU-në, ngarkimi i të dhënave në përshpejtuesit GPU përshpejtohet me një renditje të madhësisë, kështu që aplikacionet e Big Data funksionojnë me performancën maksimale që ofrojnë GPU-të. Nga ana tjetër, zhvilluesit e sistemit HPC janë të interesuar për përparimet në sistemet e ruajtjes me shpejtësitë më të larta hyrëse/dalëse, si ato të prodhuara nga Kingston.

5.8 milion IOPS: pse kaq shumë?

Performanca e GPU-së tejkalon ngarkimin e të dhënave

Që kur CUDA, një arkitekturë kompjuterike paralele e bazuar në harduer dhe softuer GPU për zhvillimin e aplikacioneve me qëllime të përgjithshme, u krijua në 2007, aftësitë harduerike të vetë GPU-ve janë rritur në mënyrë të jashtëzakonshme. Sot, GPU-të përdoren gjithnjë e më shumë në aplikacionet HPC si Big Data, mësimi i makinerive (ML) dhe mësimi i thellë (DL).

Vini re se pavarësisht ngjashmërisë së termave, dy të fundit janë detyra algoritmikisht të ndryshme. ML trajnon kompjuterin bazuar në të dhëna të strukturuara, ndërsa DL e trajnon kompjuterin bazuar në reagimet nga një rrjet nervor. Një shembull për të kuptuar dallimet është mjaft i thjeshtë. Le të supozojmë se kompjuteri duhet të bëjë dallimin midis fotove të maceve dhe qenve që ngarkohen nga sistemi i ruajtjes. Për ML, duhet të paraqisni një grup imazhesh me shumë etiketa, secila prej të cilave përcakton një veçori të veçantë të kafshës. Për DL, mjafton të ngarkoni një numër shumë më të madh imazhesh, por me vetëm një etiketë "kjo është një mace" ose "ky është një qen". DL është shumë e ngjashme me mënyrën se si mësohen fëmijët e vegjël - atyre thjesht u shfaqen fotografi të qenve dhe maceve në libra dhe në jetë (më shpesh, pa shpjeguar as ndryshimin e detajuar), dhe vetë truri i fëmijës fillon të përcaktojë llojin e kafshës pas një numër i caktuar kritik i fotografive për krahasim ( Sipas vlerësimeve, ne po flasim për vetëm njëqind ose dy shfaqje gjatë fëmijërisë së hershme). Algoritmet DL nuk janë ende aq të përsosura: që një rrjet nervor të punojë me sukses edhe në identifikimin e imazheve, është e nevojshme të ushqehen dhe përpunohen miliona imazhe në GPU.

Përmbledhje e parathënies: bazuar në GPU, mund të ndërtoni aplikacione HPC në fushën e të dhënave të mëdha, ML dhe DL, por ka një problem - grupet e të dhënave janë aq të mëdha sa koha e shpenzuar për ngarkimin e të dhënave nga sistemi i ruajtjes në GPU. fillon të zvogëlojë performancën e përgjithshme të aplikacionit. Me fjalë të tjera, GPU-të e shpejta mbeten të pashfrytëzuara për shkak të të dhënave të ngadalta I/O që vijnë nga nënsisteme të tjera. Dallimi në shpejtësinë I/O të GPU-së dhe autobusit në CPU/sistemin e ruajtjes mund të jetë një rend i madhësisë.

Si funksionon teknologjia GPUDirect Storage?

Procesi I/O kontrollohet nga CPU, siç është procesi i ngarkimit të të dhënave nga ruajtja në GPU për përpunim të mëtejshëm. Kjo çoi në një kërkesë për teknologji që do të siguronte akses të drejtpërdrejtë midis GPU-ve dhe disqeve NVMe për të komunikuar shpejt me njëri-tjetrin. NVIDIA ishte e para që ofroi një teknologji të tillë dhe e quajti atë GPUDirect Storage. Në fakt, ky është një variant i teknologjisë GPUDirect RDMA (Remote Direct Memory Address) që ata zhvilluan më parë.

5.8 milion IOPS: pse kaq shumë?
Jensen Huang, CEO i NVIDIA, do të prezantojë GPUDirect Storage si një variant të GPUDirect RDMA në SC-19. Burimi: NVIDIA

Dallimi midis GPUDirect RDMA dhe GPUDirect Storage është në pajisjet midis të cilave kryhet adresimi. Teknologjia GPUDirect RDMA është ripërdorur për të lëvizur të dhënat drejtpërdrejt midis kartës së ndërfaqes së rrjetit të përparmë (NIC) dhe kujtesës GPU, dhe GPUDirect Storage ofron një shteg të drejtpërdrejtë të të dhënave midis ruajtjes lokale ose në distancë, si NVMe ose NVMe mbi Fabric (NVMe-oF) dhe Memorie GPU.

Të dyja GPUDirect RDMA dhe GPUDirect Storage shmangin lëvizjet e panevojshme të të dhënave përmes një buferi në memorien e CPU-së dhe lejojnë mekanizmin e aksesit të memories direkte (DMA) të lëvizë të dhënat nga karta e rrjetit ose ruajtja direkt në ose nga memoria GPU - të gjitha pa ngarkesë në CPU qendrore. Për GPUDirect Storage, vendndodhja e ruajtjes nuk ka rëndësi: mund të jetë një disk NVME brenda një njësie GPU, brenda një rafti ose i lidhur në rrjet si NVMe-oF.

5.8 milion IOPS: pse kaq shumë?
Skema e funksionimit të GPUDirect Storage. Burimi: NVIDIA

Sistemet e ruajtjes Hi-End në NVMe janë të kërkuara në tregun e aplikacioneve HPC

Duke kuptuar që me ardhjen e GPUDirect Storage, interesi i klientëve të mëdhenj do të tërhiqet në ofrimin e sistemeve të ruajtjes me shpejtësi I/O që korrespondojnë me xhiron e GPU-së, në ekspozitën SC-19 Kingston tregoi një demonstrim të një sistemi të përbërë nga një sistem ruajtjeje i bazuar në disqe NVMe dhe një njësi me një GPU, e cila analizonte mijëra imazhe satelitore në sekondë. Ne kemi shkruar tashmë për një sistem të tillë ruajtjeje të bazuar në 10 disqe DC1000M U.2 NVMe në një raport nga ekspozita e superkompjuterëve.

5.8 milion IOPS: pse kaq shumë?
Një sistem ruajtjeje i bazuar në 10 disqe DC1000M U.2 NVMe plotëson në mënyrë adekuate një server me përshpejtues grafikë. Burimi: Kingston

Ky sistem ruajtjeje është projektuar si një njësi rafti 1U ose më i madh dhe mund të shkallëzohet në varësi të numrit të disqeve DC1000M U.2 NVMe, secila me një kapacitet prej 3.84-7.68 TB. DC1000M është modeli i parë NVMe SSD në faktorin e formës U.2 në linjën e disqeve të qendrës së të dhënave të Kingston. Ka një vlerësim qëndrueshmërie (DWPD, Drive shkruan në ditë), duke e lejuar atë të rishkruajë të dhënat në kapacitetin e tij të plotë një herë në ditë për jetëgjatësinë e garantuar të diskut.

Në testin fio v3.13 në sistemin operativ Ubuntu 18.04.3 LTS, kernel Linux 5.0.0-31-gjenerike, kampioni i ruajtjes së ekspozitës tregoi një shpejtësi leximi (Leximi i qëndrueshëm) prej 5.8 milion IOPS me një xhiro të qëndrueshme (gjerësia e brezit të qëndrueshëm ) prej 23.8 Gbit/s.

Ariel Perez, menaxher i biznesit SSD në Kingston, tha për sistemet e reja të ruajtjes: “Ne jemi gati të pajisim gjeneratën e ardhshme të serverëve me zgjidhje U.2 NVMe SSD për të eliminuar shumë nga pengesat e transferimit të të dhënave që tradicionalisht kanë qenë të lidhura me ruajtjen. Kombinimi i disqeve NVMe SSD dhe serverit tonë premium Premier DRAM e bën Kingston një nga ofruesit më të plotë të industrisë së zgjidhjeve të të dhënave nga fundi në fund."

5.8 milion IOPS: pse kaq shumë?
Testi gfio v3.13 tregoi një kapacitet prej 23.8 Gbps për sistemin e ruajtjes demonstruese në disqet DC1000M U.2 NVMe. Burimi: Kingston

Si do të dukej një sistem tipik për aplikacionet HPC duke përdorur GPUDirect Storage ose teknologji të ngjashme? Kjo është një arkitekturë me një ndarje fizike të njësive funksionale brenda një rafti: një ose dy njësi për RAM, disa të tjera për nyjet llogaritëse GPU dhe CPU dhe një ose më shumë njësi për sistemet e ruajtjes.

Me shpalljen e GPUDirect Storage dhe shfaqjen e mundshme të teknologjive të ngjashme nga shitës të tjerë GPU, kërkesa e Kingston për sisteme ruajtjeje të dizajnuara për përdorim në llogaritjet me performancë të lartë po zgjerohet. Shënuesi do të jetë shpejtësia e leximit të të dhënave nga sistemi i ruajtjes, e krahasueshme me xhiron e kartave të rrjetit 40 ose 100 Gbit në hyrje të një njësie kompjuterike me një GPU. Kështu, sistemet e ruajtjes me shpejtësi ultra të lartë, duke përfshirë NVMe të jashtëm nëpërmjet Fabric, do të kalojnë nga të qenit ekzotikë në ato të zakonshme për aplikimet HPC. Përveç shkencës dhe llogaritjeve financiare, ato do të gjejnë aplikim në shumë fusha të tjera praktike, të tilla si sistemet e sigurisë në nivelin metropolitane të qytetit të sigurt ose qendrat e mbikëqyrjes së transportit, ku kërkohet njohja dhe shpejtësia e identifikimit të miliona imazheve HD në sekondë, "përvijuar. kamare e tregut të sistemit më të lartë të ruajtjes

Më shumë informacion rreth produkteve Kingston mund të gjeni në faqen zyrtare të internetit kompania.

Burimi: www.habr.com

Shto një koment