5.8 ملین IOPS: اتنا کیوں؟

ہیلو حبر! بگ ڈیٹا اور مشین لرننگ کے لیے ڈیٹا سیٹ تیزی سے بڑھ رہے ہیں اور ہمیں ان کے ساتھ رہنے کی ضرورت ہے۔ ہائی پرفارمنس کمپیوٹنگ (HPC، ہائی پرفارمنس کمپیوٹنگ) کے میدان میں ایک اور جدید ٹیکنالوجی کے بارے میں ہماری پوسٹ، کنگسٹن بوتھ پر دکھائی گئی سپر کمپیوٹنگ 2019. یہ گرافک پروسیسنگ یونٹس (GPU) اور GPUDirect Storage بس ٹیکنالوجی والے سرورز میں Hi-End ڈیٹا اسٹوریج سسٹم (SDS) کا استعمال ہے۔ اسٹوریج سسٹم اور جی پی یو کے درمیان براہ راست ڈیٹا کے تبادلے کی بدولت، سی پی یو کو نظرانداز کرتے ہوئے، جی پی یو ایکسلریٹر میں ڈیٹا لوڈ کرنے کا عمل ایک ترتیب سے تیز ہوتا ہے، اس لیے بگ ڈیٹا ایپلی کیشنز زیادہ سے زیادہ کارکردگی پر چلتی ہیں جو GPU فراہم کرتی ہے۔ بدلے میں، HPC سسٹم کے ڈویلپرز سب سے زیادہ I/O رفتار کے ساتھ اسٹوریج سسٹم میں پیشرفت میں دلچسپی رکھتے ہیں، جیسا کہ کنگسٹن کے ذریعہ تیار کردہ۔

5.8 ملین IOPS: اتنا کیوں؟

GPU کی کارکردگی ڈیٹا کی لوڈنگ کو پیچھے چھوڑ دیتی ہے۔

CUDA کی تخلیق کے بعد سے، GPU پر مبنی ہارڈ ویئر-سافٹ ویئر کے متوازی کمپیوٹنگ فن تعمیر عام مقصد کی ایپلی کیشنز کو تیار کرنے کے لیے، 2007 میں، خود GPUs کی ہارڈ ویئر کی صلاحیتوں میں ناقابل یقین حد تک اضافہ ہوا ہے۔ آج، GPUs تیزی سے HPC ایپلی کیشنز جیسے بگ ڈیٹا، مشین لرننگ (ML)، اور ڈیپ لرننگ (DL) میں استعمال ہو رہے ہیں۔

نوٹ کریں کہ شرائط کی مماثلت کے باوجود، آخری دو الگورتھم کے لحاظ سے مختلف کام ہیں۔ ایم ایل کمپیوٹر کو سٹرکچرڈ ڈیٹا کی بنیاد پر تربیت دیتا ہے، جب کہ ڈی ایل کمپیوٹر کو نیورل نیٹ ورک سے فیڈ بیک کی بنیاد پر تربیت دیتا ہے۔ فرق کو سمجھنے میں مدد کے لیے ایک مثال بہت آسان ہے۔ آئیے فرض کریں کہ کمپیوٹر کو بلیوں اور کتوں کی تصاویر میں فرق کرنا چاہیے جو اسٹوریج سسٹم سے بھری ہوئی ہیں۔ ML کے لیے، آپ کو بہت سے ٹیگز کے ساتھ تصاویر کا ایک سیٹ جمع کرنا چاہیے، جن میں سے ہر ایک جانور کی ایک خاص خصوصیت کی وضاحت کرتا ہے۔ DL کے لیے یہ کافی ہے کہ بہت بڑی تعداد میں تصاویر اپ لوڈ کریں، لیکن صرف ایک ٹیگ کے ساتھ "یہ ایک بلی ہے" یا "یہ ایک کتا ہے"۔ ڈی ایل بالکل اسی طرح ہے جس طرح چھوٹے بچوں کو پڑھایا جاتا ہے - انہیں کتابوں اور زندگی میں صرف کتوں اور بلیوں کی تصویریں دکھائی جاتی ہیں (اکثر اوقات، تفصیلی فرق کی وضاحت کیے بغیر)، اور بچے کا دماغ خود جانوروں کی قسم کا تعین کرنا شروع کر دیتا ہے۔ مقابلے کے لیے تصویروں کی ایک خاص تعداد ( اندازے کے مطابق ہم ابتدائی بچپن میں صرف سو یا دو شوز کے بارے میں بات کر رہے ہیں)۔ DL الگورتھم ابھی تک اتنے پرفیکٹ نہیں ہیں: ایک نیورل نیٹ ورک کے لیے تصاویر کی شناخت پر کامیابی سے کام کرنے کے لیے، لاکھوں تصاویر کو GPU میں فیڈ اور پروسیس کرنا ضروری ہے۔

دیباچے کا خلاصہ: GPUs کی بنیاد پر، آپ بگ ڈیٹا، ML اور DL کے میدان میں HPC ایپلی کیشنز بنا سکتے ہیں، لیکن ایک مسئلہ ہے - ڈیٹا سیٹ اتنے بڑے ہیں کہ اسٹوریج سسٹم سے GPU تک ڈیٹا لوڈ کرنے میں وقت صرف ہوتا ہے۔ ایپلی کیشن کی مجموعی کارکردگی کو کم کرنا شروع کر دیتا ہے۔ دوسرے الفاظ میں، تیز رفتار GPUs دوسرے سب سسٹمز سے آنے والے سست I/O ڈیٹا کی وجہ سے کم استعمال ہوتے رہتے ہیں۔ GPU کی I/O رفتار میں فرق اور CPU/اسٹوریج سسٹم کے لیے بس ایک ترتیب ہو سکتی ہے۔

GPUDirect اسٹوریج ٹیکنالوجی کیسے کام کرتی ہے؟

I/O عمل کو CPU کے ذریعے کنٹرول کیا جاتا ہے، جیسا کہ مزید پروسیسنگ کے لیے اسٹوریج سے GPUs میں ڈیٹا لوڈ کرنے کا عمل ہے۔ اس کی وجہ سے ٹیکنالوجی کی درخواست ہوئی جو GPUs اور NVMe ڈرائیوز کے درمیان ایک دوسرے کے ساتھ تیزی سے بات چیت کرنے کے لیے براہ راست رسائی فراہم کرے گی۔ NVIDIA اس طرح کی ٹیکنالوجی پیش کرنے والی پہلی کمپنی تھی اور اسے GPUDirect Storage کہا جاتا ہے۔ درحقیقت، یہ GPUDirect RDMA (ریموٹ ڈائریکٹ میموری ایڈریس) ٹیکنالوجی کا ایک تغیر ہے جو انہوں نے پہلے تیار کیا تھا۔

5.8 ملین IOPS: اتنا کیوں؟
جینسن ہوانگ، NVIDIA کے سی ای او، SC-19 میں GPUDirect RDMA کے مختلف قسم کے طور پر GPUDirect Storage پیش کریں گے۔ ماخذ: NVIDIA

GPUDirect RDMA اور GPUDirect اسٹوریج کے درمیان فرق ان آلات میں ہے جن کے درمیان ایڈریسنگ کی جاتی ہے۔ GPUDirect RDMA ٹیکنالوجی کو ڈیٹا کو براہ راست فرنٹ اینڈ نیٹ ورک انٹرفیس کارڈ (NIC) اور GPU میموری کے درمیان منتقل کرنے کے لیے دوبارہ تیار کیا گیا ہے، اور GPUDirect اسٹوریج مقامی یا ریموٹ اسٹوریج جیسے NVMe یا NVMe اوور فیبرک (NVMe-oF) کے درمیان براہ راست ڈیٹا کا راستہ فراہم کرتا ہے۔ GPU میموری۔

GPUDirect RDMA اور GPUDirect اسٹوریج دونوں CPU میموری میں بفر کے ذریعے ڈیٹا کی غیر ضروری نقل و حرکت سے گریز کرتے ہیں اور براہ راست میموری تک رسائی (DMA) میکانزم کو نیٹ ورک کارڈ یا اسٹوریج سے ڈیٹا کو براہ راست GPU میموری میں یا اس سے منتقل کرنے کی اجازت دیتے ہیں - یہ سب کچھ مرکزی CPU پر بوجھ کے بغیر۔ GPUDirect Storage کے لیے، سٹوریج کے مقام سے کوئی فرق نہیں پڑتا: یہ GPU یونٹ کے اندر، ریک کے اندر، یا نیٹ ورک پر NVMe-oF کے طور پر جڑی ہوئی NVME ڈسک ہو سکتی ہے۔

5.8 ملین IOPS: اتنا کیوں؟
GPUDirect اسٹوریج کے آپریشن کی اسکیم۔ ماخذ: NVIDIA

HPC ایپلیکیشن مارکیٹ میں NVMe پر ہائی اینڈ اسٹوریج سسٹمز کی مانگ ہے۔

یہ سمجھتے ہوئے کہ GPUDirect Storage کی آمد کے ساتھ، بڑے صارفین کی دلچسپی GPU کے تھرو پٹ کے مطابق I/O رفتار کے ساتھ اسٹوریج سسٹم کی پیشکش کی طرف مبذول ہو جائے گی، SC-19 نمائش میں کنگسٹن نے ایک ایسے نظام کا ڈیمو دکھایا جس میں ایک NVMe ڈسکوں پر مبنی اسٹوریج سسٹم اور GPU کے ساتھ ایک یونٹ، جو فی سیکنڈ ہزاروں سیٹلائٹ امیجز کا تجزیہ کرتا ہے۔ ہم پہلے ہی 10 DC1000M U.2 NVMe ڈرائیوز پر مبنی اس طرح کے اسٹوریج سسٹم کے بارے میں لکھ چکے ہیں۔ سپر کمپیوٹر نمائش کی ایک رپورٹ میں.

5.8 ملین IOPS: اتنا کیوں؟
10 DC1000M U.2 NVMe ڈرائیو پر مبنی اسٹوریج سسٹم گرافکس ایکسلریٹر کے ساتھ سرور کو مناسب طریقے سے مکمل کرتا ہے۔ ماخذ: کنگسٹن

اس اسٹوریج سسٹم کو 1U یا اس سے بڑے ریک یونٹ کے طور پر ڈیزائن کیا گیا ہے اور اسے DC1000M U.2 NVMe ڈرائیوز کی تعداد کے لحاظ سے پیمانہ کیا جا سکتا ہے، ہر ایک کی گنجائش 3.84-7.68 TB ہے۔ DC1000M کنگسٹن کی ڈیٹا سینٹر ڈرائیوز کی لائن میں U.2 فارم فیکٹر میں پہلا NVMe SSD ماڈل ہے۔ اس کی برداشت کی درجہ بندی ہے (DWPD، Drive writes per day)، اسے ڈرائیو کی ضمانت شدہ زندگی کے لیے دن میں ایک بار اپنی پوری صلاحیت کے مطابق ڈیٹا کو دوبارہ لکھنے کی اجازت دیتا ہے۔

Ubuntu 3.13 LTS آپریٹنگ سسٹم، Linux kernel 18.04.3-5.0.0-generic پر fio v31 ٹیسٹ میں، نمائشی سٹوریج کے نمونے نے ایک پائیدار تھرو پٹ (مستقل بینڈوڈتھ) کے ساتھ 5.8 ملین IOPS کی پڑھنے کی رفتار (مستقل پڑھیں) دکھائی۔ ) 23.8 Gbit/s۔

کنگسٹن میں ایس ایس ڈی بزنس مینیجر ایریل پیریز نے نئے سٹوریج سسٹمز کے بارے میں کہا: "ہم سرورز کی اگلی نسل کو U.2 NVMe SSD سلوشنز سے آراستہ کرنے کے لیے تیار ہیں تاکہ ڈیٹا کی منتقلی کی بہت سی رکاوٹوں کو ختم کیا جا سکے جو روایتی طور پر اسٹوریج سے وابستہ ہیں۔ NVMe SSD ڈرائیوز اور ہمارے پریمیم سرور پریمیئر DRAM کا امتزاج کنگسٹن کو انڈسٹری کے سب سے زیادہ جامع اینڈ ٹو اینڈ ڈیٹا سلوشن فراہم کرنے والوں میں سے ایک بناتا ہے۔"

5.8 ملین IOPS: اتنا کیوں؟
gfio v3.13 ٹیسٹ نے DC23.8M U.1000 NVMe ڈرائیوز پر ڈیمو اسٹوریج سسٹم کے لیے 2 Gbps کا تھرو پٹ دکھایا۔ ماخذ: کنگسٹن

GPUDirect Storage یا اس سے ملتی جلتی ٹیکنالوجی کے استعمال سے HPC ایپلیکیشنز کے لیے ایک عام نظام کیسا نظر آئے گا؟ یہ ایک ریک کے اندر فنکشنل یونٹس کی فزیکل علیحدگی کے ساتھ ایک فن تعمیر ہے: RAM کے لیے ایک یا دو یونٹ، GPU اور CPU کمپیوٹنگ نوڈس کے لیے کئی اور، اور اسٹوریج سسٹمز کے لیے ایک یا زیادہ یونٹ۔

GPUDirect سٹوریج کے اعلان اور دیگر GPU وینڈرز کی جانب سے اسی طرح کی ٹیکنالوجیز کے ممکنہ ظہور کے ساتھ، کنگسٹن کی اعلی کارکردگی والے کمپیوٹنگ میں استعمال کے لیے ڈیزائن کیے گئے سٹوریج سسٹمز کی مانگ بڑھ رہی ہے۔ مارکر سٹوریج سسٹم سے ڈیٹا پڑھنے کی رفتار ہو گا، جس کا موازنہ GPU والے کمپیوٹنگ یونٹ کے داخلی راستے پر 40- یا 100-Gbit نیٹ ورک کارڈز کے ذریعے کیا جا سکتا ہے۔ اس طرح، انتہائی تیز رفتار اسٹوریج سسٹم، بشمول فیبرک کے ذریعے بیرونی NVMe، HPC ایپلی کیشنز کے لیے غیر ملکی ہونے سے مرکزی دھارے میں شامل ہو جائیں گے۔ سائنس اور مالی حسابات کے علاوہ، وہ بہت سے دوسرے عملی شعبوں میں بھی درخواست تلاش کریں گے، جیسے کہ سیف سٹی میٹروپولیٹن کی سطح پر سیکیورٹی سسٹمز یا ٹرانسپورٹ سرویلنس سینٹرز، جہاں فی سیکنڈ لاکھوں ایچ ڈی امیجز کی شناخت اور شناخت کی رفتار درکار ہوتی ہے۔" ٹاپ سٹوریج سسٹم کی مارکیٹ کی جگہ

کنگسٹن کی مصنوعات کے بارے میں مزید معلومات یہاں پر مل سکتی ہیں۔ سرکاری ویب سائٹ کمپنی

ماخذ: www.habr.com

نیا تبصرہ شامل کریں