5.8 మిలియన్ IOPS: ఎందుకు చాలా?

హలో హబ్ర్! బిగ్ డేటా మరియు మెషిన్ లెర్నింగ్ కోసం డేటా సెట్‌లు విపరీతంగా పెరుగుతున్నాయి మరియు మనం వాటిని కొనసాగించాలి. కింగ్‌స్టన్ బూత్‌లో ప్రదర్శించబడిన హై పెర్ఫార్మెన్స్ కంప్యూటింగ్ (HPC, హై పెర్ఫార్మెన్స్ కంప్యూటింగ్) రంగంలో మరో వినూత్న సాంకేతికత గురించి మా పోస్ట్ సూపర్‌కంప్యూటింగ్-2019. గ్రాఫిక్ ప్రాసెసింగ్ యూనిట్లు (GPU) మరియు GPUDirect స్టోరేజ్ బస్ టెక్నాలజీతో సర్వర్‌లలో హై-ఎండ్ డేటా స్టోరేజ్ సిస్టమ్స్ (SDS)ని ఉపయోగించడం ఇది. నిల్వ సిస్టమ్ మరియు GPU మధ్య ప్రత్యక్ష డేటా మార్పిడికి ధన్యవాదాలు, CPUని దాటవేసి, GPU యాక్సిలరేటర్‌లలోకి డేటాను లోడ్ చేయడం మాగ్నిట్యూడ్ క్రమంలో వేగవంతం చేయబడుతుంది, కాబట్టి GPUలు అందించే గరిష్ట పనితీరుతో బిగ్ డేటా అప్లికేషన్‌లు రన్ అవుతాయి. ప్రతిగా, HPC సిస్టమ్ డెవలపర్‌లు కింగ్‌స్టన్ ద్వారా ఉత్పత్తి చేయబడిన అత్యధిక I/O వేగంతో నిల్వ సిస్టమ్‌లలో పురోగతిపై ఆసక్తిని కలిగి ఉన్నారు.

5.8 మిలియన్ IOPS: ఎందుకు చాలా?

GPU పనితీరు డేటా లోడింగ్‌ను అధిగమించింది

CUDA, సాధారణ-ప్రయోజన అనువర్తనాలను అభివృద్ధి చేయడానికి GPU-ఆధారిత హార్డ్‌వేర్ మరియు సాఫ్ట్‌వేర్ సమాంతర కంప్యూటింగ్ ఆర్కిటెక్చర్, 2007లో సృష్టించబడినప్పటి నుండి, GPUల హార్డ్‌వేర్ సామర్థ్యాలు చాలా పెరిగాయి. నేడు, GPUలు బిగ్ డేటా, మెషిన్ లెర్నింగ్ (ML) మరియు డీప్ లెర్నింగ్ (DL) వంటి HPC అప్లికేషన్‌లలో ఎక్కువగా ఉపయోగించబడుతున్నాయి.

నిబంధనల సారూప్యత ఉన్నప్పటికీ, చివరి రెండు అల్గారిథమిక్‌గా భిన్నమైన పనులు అని గమనించండి. ML నిర్మాణాత్మక డేటా ఆధారంగా కంప్యూటర్‌కు శిక్షణనిస్తుంది, అయితే DL న్యూరల్ నెట్‌వర్క్ నుండి వచ్చిన ఫీడ్‌బ్యాక్ ఆధారంగా కంప్యూటర్‌కు శిక్షణ ఇస్తుంది. తేడాలను అర్థం చేసుకోవడానికి ఒక ఉదాహరణ చాలా సులభం. స్టోరేజ్ సిస్టమ్ నుండి లోడ్ చేయబడిన పిల్లులు మరియు కుక్కల ఫోటోల మధ్య కంప్యూటర్ తప్పనిసరిగా తేడాను గుర్తించాలని అనుకుందాం. ML కోసం, మీరు అనేక ట్యాగ్‌లతో చిత్రాల సమితిని సమర్పించాలి, వీటిలో ప్రతి ఒక్కటి జంతువు యొక్క ఒక నిర్దిష్ట లక్షణాన్ని నిర్వచిస్తుంది. DL కోసం, ఇది చాలా పెద్ద సంఖ్యలో చిత్రాలను అప్‌లోడ్ చేయడానికి సరిపోతుంది, కానీ కేవలం ఒక ట్యాగ్‌తో “ఇది పిల్లి” లేదా “ఇది కుక్క”. DL అనేది చిన్నపిల్లలకు ఎలా బోధించబడుతుందో దానికి చాలా పోలి ఉంటుంది - వారికి పుస్తకాలలో మరియు జీవితంలో కుక్కలు మరియు పిల్లుల చిత్రాలు చూపబడతాయి (చాలా తరచుగా, వివరణాత్మక వ్యత్యాసాన్ని కూడా వివరించకుండా), మరియు పిల్లల మెదడు స్వయంగా జంతువు యొక్క రకాన్ని నిర్ణయించడం ప్రారంభిస్తుంది. పోలిక కోసం నిర్దిష్ట క్లిష్టమైన సంఖ్యలో చిత్రాలు (అంచనాల ప్రకారం, మేము చిన్నతనంలో వంద లేదా రెండు ప్రదర్శనల గురించి మాత్రమే మాట్లాడుతున్నాము). DL అల్గారిథమ్‌లు ఇంకా పరిపూర్ణంగా లేవు: ఒక న్యూరల్ నెట్‌వర్క్ కూడా చిత్రాలను గుర్తించడంలో విజయవంతంగా పని చేయడానికి, GPUలోకి మిలియన్ల కొద్దీ చిత్రాలను ఫీడ్ చేయడం మరియు ప్రాసెస్ చేయడం అవసరం.

ముందుమాట యొక్క సారాంశం: GPUల ఆధారంగా, మీరు బిగ్ డేటా, ML మరియు DL రంగంలో HPC అప్లికేషన్‌లను రూపొందించవచ్చు, కానీ ఒక సమస్య ఉంది - డేటా సెట్‌లు చాలా పెద్దవి, నిల్వ సిస్టమ్ నుండి GPUకి డేటాను లోడ్ చేయడానికి గడిపిన సమయం. అప్లికేషన్ యొక్క మొత్తం పనితీరును తగ్గించడం ప్రారంభమవుతుంది. మరో మాటలో చెప్పాలంటే, ఇతర సబ్‌సిస్టమ్‌ల నుండి వచ్చే నెమ్మదిగా I/O డేటా కారణంగా వేగవంతమైన GPUలు ఉపయోగించబడవు. GPU మరియు బస్ యొక్క I/O వేగంలో CPU/స్టోరేజ్ సిస్టమ్‌కు వ్యత్యాసం పరిమాణం యొక్క క్రమం కావచ్చు.

GPUDirect స్టోరేజ్ టెక్నాలజీ ఎలా పని చేస్తుంది?

I/O ప్రక్రియ CPUచే నియంత్రించబడుతుంది, తదుపరి ప్రాసెసింగ్ కోసం నిల్వ నుండి GPUలకు డేటాను లోడ్ చేసే ప్రక్రియ వలె. ఇది ఒకదానితో ఒకటి త్వరగా కమ్యూనికేట్ చేయడానికి GPUలు మరియు NVMe డ్రైవ్‌ల మధ్య ప్రత్యక్ష ప్రాప్యతను అందించే సాంకేతికత కోసం అభ్యర్థనకు దారితీసింది. NVIDIA అటువంటి సాంకేతికతను అందించిన మొదటిది మరియు దానిని GPUDirect స్టోరేజ్ అని పిలిచింది. వాస్తవానికి, ఇది వారు గతంలో అభివృద్ధి చేసిన GPUDirect RDMA (రిమోట్ డైరెక్ట్ మెమరీ అడ్రస్) సాంకేతికత యొక్క వైవిధ్యం.

5.8 మిలియన్ IOPS: ఎందుకు చాలా?
NVIDIA యొక్క CEO జెన్సన్ హువాంగ్, SC-19 వద్ద GPUDirect RDMA యొక్క రూపాంతరంగా GPUDirect నిల్వను అందజేస్తారు. మూలం: NVIDIA

GPUDirect RDMA మరియు GPUDirect స్టోరేజ్ మధ్య వ్యత్యాసం అడ్రసింగ్ నిర్వహించబడే పరికరాలలో ఉంటుంది. GPUDirect RDMA సాంకేతికత డేటాను నేరుగా ఫ్రంట్-ఎండ్ నెట్‌వర్క్ ఇంటర్‌ఫేస్ కార్డ్ (NIC) మరియు GPU మెమరీ మధ్య తరలించడానికి పునర్నిర్మించబడింది మరియు GPUDirect స్టోరేజ్ స్థానిక లేదా రిమోట్ స్టోరేజ్ మధ్య NVMe లేదా NVMe ఓవర్ ఫ్యాబ్రిక్ (NVMe-oF) మరియు GPU మెమరీ.

GPUDirect RDMA మరియు GPUDirect స్టోరేజ్ రెండూ CPU మెమరీలోని బఫర్ ద్వారా అనవసరమైన డేటా కదలికలను నివారిస్తాయి మరియు డైరెక్ట్ మెమరీ యాక్సెస్ (DMA) మెకానిజం నెట్‌వర్క్ కార్డ్ లేదా స్టోరేజ్ నుండి డేటాను నేరుగా లేదా GPU మెమరీకి తరలించడానికి అనుమతిస్తుంది - అన్నీ సెంట్రల్ CPUలో లోడ్ లేకుండా. GPUDirect నిల్వ కోసం, నిల్వ యొక్క స్థానం పట్టింపు లేదు: ఇది GPU యూనిట్ లోపల, రాక్ లోపల లేదా NVMe-oF వలె నెట్‌వర్క్‌లో కనెక్ట్ చేయబడిన NVME డిస్క్ కావచ్చు.

5.8 మిలియన్ IOPS: ఎందుకు చాలా?
GPUDirect నిల్వ యొక్క ఆపరేషన్ పథకం. మూలం: NVIDIA

NVMeలోని హై-ఎండ్ స్టోరేజ్ సిస్టమ్‌లకు HPC అప్లికేషన్ మార్కెట్‌లో డిమాండ్ ఉంది

GPUడైరెక్ట్ స్టోరేజ్ రాకతో, GPU యొక్క నిర్గమాంశకు అనుగుణంగా I/O స్పీడ్‌లతో కూడిన స్టోరేజీ సిస్టమ్‌లను అందించడం పట్ల పెద్ద కస్టమర్‌లు ఆసక్తి చూపుతారని గ్రహించి, SC-19 ఎగ్జిబిషన్‌లో కింగ్‌స్టన్ ఒక సిస్టమ్ డెమోను ప్రదర్శించింది. NVMe డిస్క్‌లపై ఆధారపడిన నిల్వ వ్యవస్థ మరియు GPUతో కూడిన యూనిట్, ఇది సెకనుకు వేలాది ఉపగ్రహ చిత్రాలను విశ్లేషించింది. మేము ఇప్పటికే 10 DC1000M U.2 NVMe డ్రైవ్‌ల ఆధారంగా అటువంటి నిల్వ సిస్టమ్ గురించి వ్రాసాము. సూపర్ కంప్యూటర్ ఎగ్జిబిషన్ నుండి ఒక నివేదికలో.

5.8 మిలియన్ IOPS: ఎందుకు చాలా?
10 DC1000M U.2 NVMe డ్రైవ్‌ల ఆధారంగా స్టోరేజ్ సిస్టమ్ గ్రాఫిక్స్ యాక్సిలరేటర్‌లతో సర్వర్‌ను తగినంతగా పూర్తి చేస్తుంది. మూలం: కింగ్స్టన్

ఈ స్టోరేజ్ సిస్టమ్ 1U లేదా అంతకంటే పెద్ద ర్యాక్ యూనిట్‌గా రూపొందించబడింది మరియు DC1000M U.2 NVMe డ్రైవ్‌ల సంఖ్యను బట్టి స్కేల్ చేయవచ్చు, ఒక్కొక్కటి 3.84-7.68 TB సామర్థ్యంతో ఉంటుంది. DC1000M అనేది కింగ్‌స్టన్ యొక్క డేటా సెంటర్ డ్రైవ్‌లలో U.2 ఫారమ్ ఫ్యాక్టర్‌లో మొదటి NVMe SSD మోడల్. ఇది ఒక ఎండ్యూరెన్స్ రేటింగ్ (DWPD, డ్రైవ్ రైట్స్ పర్ డే) కలిగి ఉంది, ఇది డ్రైవ్ యొక్క గ్యారెంటీ లైఫ్ కోసం డేటాను దాని పూర్తి సామర్థ్యానికి ఒకసారి తిరిగి వ్రాయడానికి అనుమతిస్తుంది.

ఉబుంటు 3.13 LTS ఆపరేటింగ్ సిస్టమ్, Linux కెర్నల్ 18.04.3-5.0.0-జనరిక్‌పై fio v31 పరీక్షలో, ఎగ్జిబిషన్ నిల్వ నమూనా స్థిరమైన నిర్గమాంశ (సస్టైన్డ్ బ్యాండ్‌విడ్త్)తో 5.8 మిలియన్ IOPS యొక్క రీడ్ స్పీడ్ (సస్టైన్డ్ రీడ్)ను చూపింది. ) 23.8 Gbit/s.

కింగ్‌స్టన్‌లోని SSD బిజినెస్ మేనేజర్, కింగ్‌స్టన్‌లోని SSD బిజినెస్ మేనేజర్, కొత్త స్టోరేజ్ సిస్టమ్‌ల గురించి ఇలా అన్నారు: “సాంప్రదాయకంగా నిల్వతో అనుబంధించబడిన అనేక డేటా బదిలీ అడ్డంకులను తొలగించడానికి U.2 NVMe SSD సొల్యూషన్‌లతో తదుపరి తరం సర్వర్‌లను సన్నద్ధం చేయడానికి మేము సిద్ధంగా ఉన్నాము. NVMe SSD డ్రైవ్‌లు మరియు మా ప్రీమియం సర్వర్ ప్రీమియర్ DRAM కలయిక కింగ్‌స్టన్‌ను పరిశ్రమ యొక్క అత్యంత సమగ్రమైన ఎండ్-టు-ఎండ్ డేటా సొల్యూషన్స్ ప్రొవైడర్‌లలో ఒకటిగా చేసింది."

5.8 మిలియన్ IOPS: ఎందుకు చాలా?
Gfio v3.13 పరీక్ష DC23.8M U.1000 NVMe డ్రైవ్‌లలో డెమో స్టోరేజ్ సిస్టమ్ కోసం 2 Gbps నిర్గమాంశను చూపింది. మూలం: కింగ్స్టన్

GPUDirect స్టోరేజ్ లేదా ఇలాంటి టెక్నాలజీని ఉపయోగించి HPC అప్లికేషన్‌ల కోసం ఒక సాధారణ సిస్టమ్ ఎలా ఉంటుంది? ఇది ర్యాక్‌లోని ఫంక్షనల్ యూనిట్‌ల భౌతిక విభజనతో కూడిన ఆర్కిటెక్చర్: RAM కోసం ఒకటి లేదా రెండు యూనిట్లు, GPU మరియు CPU కంప్యూటింగ్ నోడ్‌ల కోసం మరెన్నో మరియు నిల్వ సిస్టమ్‌ల కోసం ఒకటి లేదా అంతకంటే ఎక్కువ యూనిట్లు.

GPUDirect నిల్వ ప్రకటన మరియు ఇతర GPU విక్రేతల నుండి సారూప్య సాంకేతికతలు అందుబాటులోకి రావడంతో, అధిక-పనితీరు గల కంప్యూటింగ్‌లో ఉపయోగం కోసం రూపొందించబడిన నిల్వ వ్యవస్థల కోసం కింగ్‌స్టన్ యొక్క డిమాండ్ విస్తరిస్తోంది. GPUతో కంప్యూటింగ్ యూనిట్‌కి ప్రవేశ ద్వారం వద్ద ఉన్న 40- లేదా 100-Gbit నెట్‌వర్క్ కార్డ్‌ల నిర్గమాంశతో పోల్చదగిన స్టోరేజ్ సిస్టమ్ నుండి డేటా రీడింగ్ వేగం మార్కర్ అవుతుంది. అందువల్ల, ఫాబ్రిక్ ద్వారా బాహ్య NVMeతో సహా అల్ట్రా-హై-స్పీడ్ స్టోరేజ్ సిస్టమ్‌లు HPC అప్లికేషన్‌ల కోసం అన్యదేశంగా ఉండటం నుండి ప్రధాన స్రవంతిలోకి వెళ్తాయి. సైన్స్ మరియు ఆర్థిక గణనలతో పాటు, వారు సేఫ్ సిటీ మెట్రోపాలిటన్ స్థాయిలో భద్రతా వ్యవస్థలు లేదా రవాణా నిఘా కేంద్రాలు వంటి అనేక ఇతర ఆచరణాత్మక ప్రాంతాలలో అప్లికేషన్‌ను కనుగొంటారు, ఇక్కడ సెకనుకు మిలియన్ల HD చిత్రాల గుర్తింపు మరియు గుర్తింపు వేగం అవసరం. అగ్ర నిల్వ వ్యవస్థ యొక్క మార్కెట్ సముచితం

కింగ్‌స్టన్ ఉత్పత్తుల గురించి మరింత సమాచారం ఇక్కడ చూడవచ్చు అధికారిక వెబ్సైట్ సంస్థ.

మూలం: www.habr.com

ఒక వ్యాఖ్యను జోడించండి