5.8 milyon IOPS: niyə bu qədər?

Salam Habr! Big Data və maşın öyrənməsi üçün məlumat dəstləri eksponent olaraq artır və biz onlarla ayaqlaşmalıyıq. Kingston stendində göstərilən yüksək performanslı hesablama (HPC, High Performance Computing) sahəsində daha bir innovativ texnologiya haqqında yazımız. Supercomputing-2019. Bu, qrafik emal vahidləri (GPU) və GPUDirect Storage avtobus texnologiyası olan serverlərdə Hi-End məlumat saxlama sistemlərinin (SDS) istifadəsidir. Saxlama sistemi və GPU arasında birbaşa məlumat mübadiləsi sayəsində CPU-dan yan keçərək məlumatların GPU sürətləndiricilərinə yüklənməsi böyüklük sırası ilə sürətlənir, beləliklə Big Data proqramları GPU-ların təmin etdiyi maksimum performansla işləyir. Öz növbəsində, HPC sistem tərtibatçıları Kingston tərəfindən istehsal olunanlar kimi ən yüksək I/O sürətinə malik saxlama sistemlərindəki irəliləyişlərlə maraqlanırlar.

5.8 milyon IOPS: niyə bu qədər?

GPU performansı məlumatların yüklənməsini üstələyir

Ümumi təyinatlı proqramların işlənib hazırlanması üçün GPU əsaslı aparat və proqram təminatı paralel hesablama arxitekturası olan CUDA 2007-ci ildə yaradılandan bəri GPU-ların özlərinin aparat imkanları inanılmaz dərəcədə artmışdır. Bu gün GPU-lar Böyük Məlumat, maşın öyrənməsi (ML) və dərin öyrənmə (DL) kimi HPC tətbiqlərində getdikcə daha çox istifadə olunur.

Qeyd edək ki, terminlərin oxşarlığına baxmayaraq, son ikisi alqoritmik olaraq fərqli vəzifələrdir. ML kompüteri strukturlaşdırılmış məlumatlar əsasında öyrədir, DL isə neyron şəbəkədən gələn rəy əsasında kompüteri məşq edir. Fərqləri başa düşməyə kömək edəcək bir nümunə olduqca sadədir. Fərz edək ki, kompüter saxlama sistemindən yüklənmiş pişik və itlərin fotoşəkillərini ayırd etməlidir. ML üçün siz hər biri heyvanın xüsusi bir xüsusiyyətini təyin edən çoxlu teqləri olan şəkillər toplusunu təqdim etməlisiniz. DL üçün daha çox sayda şəkil yükləmək kifayətdir, lakin yalnız bir etiketlə “bu pişikdir” və ya “bu itdir”. DL kiçik uşaqlara necə öyrədildiyinə çox bənzəyir - onlara kitablarda və həyatda sadəcə olaraq it və pişik şəkilləri göstərilir (əksər hallarda, hətta təfərrüatlı fərqi izah etmədən) və uşağın beyni özü heyvanın növünü müəyyən etməyə başlayır. Müqayisə üçün müəyyən kritik sayda şəkillər (Təxminlərə görə, erkən uşaqlıq dövründə yalnız yüz və ya iki şoudan danışırıq). DL alqoritmləri hələ o qədər də mükəmməl deyil: neyron şəbəkənin şəkillərin müəyyənləşdirilməsi üzərində də uğurla işləməsi üçün GPU-ya milyonlarla təsviri qidalandırmaq və emal etmək lazımdır.

Ön sözün xülasəsi: GPU-lara əsaslanaraq, Big Data, ML və DL sahəsində HPC proqramları qura bilərsiniz, lakin bir problem var - məlumat dəstləri o qədər böyükdür ki, məlumatların yaddaş sistemindən GPU-ya yüklənməsinə sərf olunan vaxt tətbiqin ümumi performansını azaltmağa başlayır. Başqa sözlə, digər alt sistemlərdən gələn yavaş I/O məlumatlarına görə sürətli GPU-lar kifayət qədər istifadə olunmur. GPU-nun və CPU/saxlama sisteminə gedən avtobusun I/O sürətindəki fərq böyüklük sırası ola bilər.

GPUDirect Storage texnologiyası necə işləyir?

Giriş/çıxış prosesi, məlumatların yaddaşdan GPU-lara sonrakı emal üçün yüklənməsi prosesi kimi CPU tərəfindən idarə olunur. Bu, bir-biri ilə tez əlaqə saxlamaq üçün GPU-lar və NVMe sürücüləri arasında birbaşa çıxışı təmin edəcək texnologiya tələbinə səbəb oldu. NVIDIA ilk dəfə belə texnologiyanı təklif etdi və onu GPUDirect Storage adlandırdı. Əslində, bu, əvvəllər inkişaf etdirdikləri GPUDirect RDMA (Remote Direct Memory Address) texnologiyasının bir variasiyasıdır.

5.8 milyon IOPS: niyə bu qədər?
NVIDIA-nın baş direktoru Jensen Huang SC-19-da GPUDirect Storage-ni GPUDirect RDMA-nın bir variantı kimi təqdim edəcək. Mənbə: NVIDIA

GPUDirect RDMA və GPUDirect Storage arasındakı fərq ünvanlamanın aparıldığı cihazlardadır. GPUDirect RDMA texnologiyası məlumatları birbaşa ön şəbəkə interfeysi kartı (NIC) və GPU yaddaşı arasında köçürmək üçün nəzərdə tutulub və GPUDirect Storage NVMe və ya NVMe üzərində Fabric (NVMe-oF) və NVMe kimi yerli və ya uzaq yaddaş arasında birbaşa məlumat yolunu təmin edir. GPU yaddaşı.

Həm GPUDirect RDMA, həm də GPUDirect Storage CPU yaddaşındakı bufer vasitəsilə lazımsız məlumat hərəkətlərinin qarşısını alır və birbaşa yaddaş girişi (DMA) mexanizminə məlumatı şəbəkə kartından və ya yaddaşdan birbaşa GPU yaddaşına və ya ondan köçürməyə imkan verir - hamısı mərkəzi CPU-ya yük olmadan. GPUDirect Storage üçün yaddaşın yerinin əhəmiyyəti yoxdur: bu, GPU blokunun içərisində, rafın içərisində olan NVME diski ola bilər və ya NVMe-oF kimi şəbəkə üzərindən qoşula bilər.

5.8 milyon IOPS: niyə bu qədər?
GPUDirect Storage-nin iş sxemi. Mənbə: NVIDIA

NVMe-də yüksək səviyyəli saxlama sistemləri HPC proqram bazarında tələb olunur

GPUDirect Storage-in meydana çıxması ilə böyük müştərilərin marağının GPU-nun ötürmə qabiliyyətinə uyğun gələn I/O sürəti ilə saxlama sistemlərinin təklifinə cəlb olunacağını anlayan Kingston, SC-19 sərgisində bir sistemdən ibarət sistemin nümayişini nümayiş etdirdi. NVMe disklərinə əsaslanan saxlama sistemi və saniyədə minlərlə peyk şəklini təhlil edən GPU-ya malik qurğu. 10 DC1000M U.2 NVMe sürücüsünə əsaslanan belə bir saxlama sistemi haqqında artıq yazmışıq. superkompüter sərgisindən reportajda.

5.8 milyon IOPS: niyə bu qədər?
10 DC1000M U.2 NVMe diskinə əsaslanan yaddaş sistemi qrafik sürətləndiriciləri ilə serveri adekvat şəkildə tamamlayır. Mənbə: Kingston

Bu saxlama sistemi 1U və ya daha böyük rack vahidi kimi nəzərdə tutulmuşdur və hər birinin tutumu 1000-2 TB olan DC3.84M U.7.68 NVMe sürücülərinin sayından asılı olaraq miqyaslana bilər. DC1000M Kingston-un məlumat mərkəzi diskləri xəttində U.2 forma faktorunda ilk NVMe SSD modelidir. O, dözümlülük reytinqinə malikdir (DWPD, Sürücü gündə yazır), ona sürücünün zəmanətli ömrü üçün gündə bir dəfə məlumatları tam gücü ilə yenidən yazmağa imkan verir.

Ubuntu 3.13 LTS əməliyyat sistemi, Linux kernel 18.04.3-5.0.0-generic üzərindəki fio v31 testində sərgi yaddaş nümunəsi davamlı ötürmə qabiliyyəti (Dayanıqlı Bandwidth) ilə 5.8 milyon IOPS oxu sürəti (Dayanıqlı Oxuma) göstərdi. ) 23.8 Gbit/s.

Kingston-da SSD biznes meneceri Ariel Perez yeni saxlama sistemləri haqqında dedi: “Biz ənənəvi olaraq saxlama ilə bağlı olan bir çox məlumat ötürmə maneələrini aradan qaldırmaq üçün gələcək nəsil serverləri U.2 NVMe SSD həlləri ilə təchiz etməyə hazırıq. NVMe SSD disklərinin və premium Server Premier DRAM-ın birləşməsi Kingston-u sənayenin ən əhatəli uçdan-uca məlumat həlləri təminatçılarından birinə çevirir."

5.8 milyon IOPS: niyə bu qədər?
gfio v3.13 testi DC23.8M U.1000 NVMe disklərində demo yaddaş sistemi üçün 2 Gbps ötürmə qabiliyyəti göstərdi. Mənbə: Kingston

GPUDirect Storage və ya oxşar texnologiyadan istifadə etməklə HPC tətbiqləri üçün tipik sistem necə görünəcək? Bu, rack daxilində funksional bölmələrin fiziki ayrılması olan bir arxitekturadır: RAM üçün bir və ya iki vahid, GPU və CPU hesablama qovşaqları üçün bir neçə daha çox və saxlama sistemləri üçün bir və ya daha çox vahid.

GPUDirect Storage-ın elanı və digər GPU təchizatçılarından oxşar texnologiyaların ortaya çıxması ilə Kingston-un yüksək performanslı hesablamalarda istifadə üçün nəzərdə tutulmuş saxlama sistemlərinə tələbi genişlənir. Marker, GPU-lu hesablama blokunun girişində 40 və ya 100 Gbit şəbəkə kartlarının ötürmə qabiliyyəti ilə müqayisə edilə bilən yaddaş sistemindən məlumatların oxunma sürəti olacaqdır. Beləliklə, Fabric vasitəsilə xarici NVMe daxil olmaqla, ultra yüksək sürətli saxlama sistemləri ekzotik olmaqdan HPC tətbiqləri üçün əsas istiqamətə keçəcəkdir. Elm və maliyyə hesablamalarına əlavə olaraq, onlar saniyədə milyonlarla HD təsvirin tanınması və identifikasiyası sürətinin tələb olunduğu Təhlükəsiz Şəhər metropoliten səviyyəsində təhlükəsizlik sistemləri və ya nəqliyyat nəzarət mərkəzləri kimi bir çox digər praktik sahələrdə tətbiq tapacaqlar "dedi. ən yaxşı Saxlama sisteminin bazar yeri

Kingston məhsulları haqqında ətraflı məlumatı burada tapa bilərsiniz rəsmi sayt şirkəti.

Mənbə: www.habr.com

Добавить комментарий