LizardFS 3.13.0-rc2 کلسٹر فائل سسٹم اپ ڈیٹ

ترقی میں ایک سال طویل سست کے بعد دوبارہ شروع غلطی برداشت کرنے والے تقسیم شدہ فائل سسٹم کی نئی شاخ پر کام کرنا LizardF 3.13 и شائع دوسرا ریلیز امیدوار۔ حال ہی میں ہوا LizardFS تیار کرنے والی کمپنی کے مالکان کی تبدیلی، نیا انتظام اپنایا گیا اور ڈویلپرز کو تبدیل کر دیا گیا۔ پچھلے دو سالوں سے، اس منصوبے کو کمیونٹی سے واپس لے لیا گیا ہے اور اس پر خاطر خواہ توجہ نہیں دی گئی ہے، لیکن نئی ٹیم کمیونٹی کے ساتھ سابقہ ​​تعلق کو بحال کرنے اور اس کے ساتھ قریبی رابطہ قائم کرنے کا ارادہ رکھتی ہے۔ پروجیکٹ کوڈ C اور C++ زبانوں میں لکھا گیا ہے۔ نے بانٹا GPLv3 لائسنس کے تحت۔

چھپکلی ہے ایک تقسیم شدہ کلسٹر فائل سسٹم، جو آپ کو مختلف سرورز میں ڈیٹا تقسیم کرنے کی اجازت دیتا ہے، لیکن ایک بڑے پارٹیشن کی صورت میں ان تک رسائی فراہم کرتا ہے، جس کے ساتھ روایتی ڈسک پارٹیشنز کی طرح کام کیا جاتا ہے۔ LizardFS کے ساتھ نصب شدہ پارٹیشن POSIX فائل کی خصوصیات، ACLs، تالے، ساکٹ، پائپ، ڈیوائس فائلز، علامتی اور ہارڈ لنکس کو سپورٹ کرتا ہے۔ سسٹم میں ناکامی کا ایک بھی نقطہ نہیں ہے؛ تمام اجزاء بے کار ہیں۔ ڈیٹا آپریشنز کی متوازی معاونت کی جاتی ہے (کئی کلائنٹ بیک وقت فائلوں تک رسائی حاصل کر سکتے ہیں)۔

غلطی کی برداشت کو یقینی بنانے کے لیے، ڈیٹا کو نقلوں میں تقسیم کیا جاتا ہے، جو فالتو پن کے ساتھ مختلف نوڈس میں تقسیم کیے جاتے ہیں (متعدد کاپیاں مختلف نوڈس پر رکھی جاتی ہیں)؛ اگر نوڈس یا ڈرائیوز ناکام ہوجاتی ہیں، تو نظام معلومات کے نقصان کے بغیر کام کرتا رہتا ہے اور ڈیٹا کو خود بخود دوبارہ تقسیم کرتا ہے۔ باقی نوڈس کو مدنظر رکھتے ہوئے اسٹوریج کو بڑھانے کے لیے، دیکھ بھال کے لیے کام کو روکے بغیر اس سے نئے نوڈس کو جوڑنا کافی ہے (سسٹم خود ڈیٹا کے کچھ حصے کو نئے سرورز پر نقل کرتا ہے اور نئے سرورز کو مدنظر رکھتے ہوئے سٹوریج کو متوازن کرتا ہے)۔ آپ کلسٹر کے سائز کو کم کرنے کے لیے بھی ایسا ہی کر سکتے ہیں - آپ آسانی سے ان فرسودہ آلات کو غیر فعال کر سکتے ہیں جو سسٹم سے ہٹائے جا رہے ہیں۔

ڈیٹا اور میٹا ڈیٹا کو الگ الگ ذخیرہ کیا جاتا ہے۔ آپریٹنگ کے لیے، ماسٹر سلیو موڈ میں کام کرنے والے دو میٹا ڈیٹا سرورز کے ساتھ ساتھ کم از کم دو ڈیٹا اسٹوریج سرورز (chunkserver) انسٹال کرنے کی سفارش کی جاتی ہے۔ مزید برآں، میٹا ڈیٹا کو بیک اپ کرنے کے لیے، لاگ سرورز کو میٹا ڈیٹا میں ہونے والی تبدیلیوں کے بارے میں معلومات کو ذخیرہ کرنے کے لیے استعمال کیا جا سکتا ہے اور تمام موجودہ میٹا ڈیٹا سرورز کو نقصان پہنچنے کی صورت میں آپ کو آپریشن بحال کرنے کی اجازت دیتا ہے۔ ہر فائل کو بلاکس (ٹکڑوں) میں تقسیم کیا گیا ہے، جس کا سائز 64 MB تک ہے۔ بلاکس کو سٹوریج سرورز کے درمیان منتخب ریپلیکیشن موڈ کے مطابق تقسیم کیا جاتا ہے: معیاری (مختلف نوڈس پر رکھی جانے والی کاپیوں کی تعداد کا واضح تعین، بشمول انفرادی ڈائریکٹریز کے سلسلے میں - اہم ڈیٹا کے لیے کاپیوں کی تعداد میں اضافہ کیا جا سکتا ہے، اور غیر اہم ڈیٹا کو کم کیا گیا، XOR (RAID5 ) اور EC (RAID6)۔

اسٹوریج پیٹا بائٹ سائز تک بڑھ سکتا ہے۔ ایپلیکیشن کے شعبوں میں آرکائیونگ، ورچوئل مشین امیجز کا ذخیرہ، ملٹی میڈیا ڈیٹا، بیک اپ، ڈی آر سی (ڈیزاسٹر ریکوری سینٹر) کے طور پر استعمال اور اعلیٰ کارکردگی والے کمپیوٹنگ کلسٹرز میں اسٹوریج کے طور پر شامل ہیں۔ LizardFS کسی بھی سائز کی فائلوں کے لیے بہت زیادہ پڑھنے کی رفتار فراہم کرتا ہے، اور لکھتے وقت، یہ پوری بڑی اور درمیانے درجے کی فائلوں کو لکھتے وقت اچھی کارکردگی دکھاتا ہے، جب کوئی مستقل ترمیم نہ ہو، کھلی فائلوں کے ساتھ گہرا کام، اور ایک وقتی آپریشن چھوٹی فائلوں کا ایک گروپ۔

LizardFS 3.13.0-rc2 کلسٹر فائل سسٹم اپ ڈیٹ

ایف ایس کی خصوصیات میں سے، کوئی اسنیپ شاٹس کے لیے سپورٹ کی موجودگی کو بھی نوٹ کر سکتا ہے، جو ایک مخصوص وقت پر فائلوں کی حالت کو ظاہر کرتا ہے، اور "ری سائیکل بن" کا بلٹ ان نفاذ (فائلیں فوری طور پر حذف نہیں ہوتی ہیں اور ان کے لیے دستیاب ہیں۔ کچھ وقت کے لئے بحالی)۔ پارٹیشن تک رسائی IP ایڈریس یا پاس ورڈ (NFS کی طرح) کے ذریعہ محدود ہوسکتی ہے۔ سروس کے انتظام کے طریقہ کار کا کوٹہ اور معیار موجود ہے جو آپ کو صارفین کی مخصوص قسموں کے لیے سائز اور بینڈوتھ کو محدود کرنے کی اجازت دیتا ہے۔ جغرافیائی طور پر تقسیم شدہ اسٹوریج کی سہولیات بنانا ممکن ہے، جن کے حصے مختلف ڈیٹا سینٹرز میں واقع ہیں۔

LizardFS پروجیکٹ کی بنیاد 2013 میں ایک کانٹے کے طور پر رکھی گئی تھی۔ MooseFS، اور بنیادی طور پر Reed-Solomon ایرر تصحیح کوڈز (raidzN کے مشابہ) پر مبنی ریپلیکشن موڈ کی موجودگی میں مختلف ہے، ACL سپورٹ کی توسیع، ونڈوز پلیٹ فارم کے لیے ایک کلائنٹ کی موجودگی، اضافی اصلاح (مثال کے طور پر، ایک کلائنٹ کو یکجا کرتے وقت اور ایک سٹوریج سرور، بلاکس، اگر ممکن ہو تو، موجودہ نوڈ کے ساتھ بھیجے جاتے ہیں، اور میٹا ڈیٹا کو میموری میں کیش کیا جاتا ہے)، ایک زیادہ لچکدار کنفیگریشن سسٹم، ڈیٹا کو پڑھنے کے لیے سپورٹ، ڈائرکٹری کوٹہ اور اندرونی دوبارہ کام۔

LizardFS 3.13.0 دسمبر کے آخر میں ریلیز ہونے والا ہے۔ LizardFS 3.13 کی اہم اختراع غلطی برداشت کو یقینی بنانے کے لیے متفقہ الگورتھم کا استعمال ہے (ناکامی کی صورت میں ماسٹر سرور کو تبدیل کرنا) راؤٹر (ہمارے اپنے یورافٹ کے نفاذ کا استعمال کرتا ہے، جو پہلے تجارتی مصنوعات میں استعمال ہوتا تھا)۔ uRaft کا استعمال کنفیگریشن کو آسان بناتا ہے اور ناکامی کی وصولی میں تاخیر کو کم کرتا ہے، لیکن کم از کم تین کام کرنے والے نوڈس کی ضرورت ہوتی ہے، جن میں سے ایک کورم کے لیے استعمال کیا جاتا ہے۔

دیگر تبدیلیاں: FUSE3 سب سسٹم پر مبنی ایک نیا کلائنٹ، غلطی کی اصلاح کے ساتھ مسائل کو حل کرتے ہوئے، nfs-ganesha پلگ ان کو C زبان میں دوبارہ لکھا گیا ہے۔ اپ ڈیٹ 3.13.0-rc2 کئی اہم کیڑے ٹھیک کرتا ہے جنہوں نے 3.13 برانچ کے پچھلے ٹیسٹ ریلیز کو ناقابل استعمال بنا دیا (3.12 برانچ کے لیے اصلاحات ابھی تک شائع نہیں ہوئی ہیں، اور 3.12 سے 3.13 تک کی اپ ڈیٹ اب بھی ڈیٹا کو مکمل نقصان کا باعث بنتی ہے)۔

2020 میں کام کی ترقی پر توجہ دی جائے گی۔
آغا، ایک نیا مکمل طور پر دوبارہ لکھا ہوا LizardFS دانا، جو ڈویلپرز کے مطابق، برانچ 3.12 کے مقابلے کارکردگی میں تین گنا اضافہ فراہم کرے گا۔ اگاما ایونٹ سے چلنے والے فن تعمیر میں تبدیل ہو جائے گا، غیر مطابقت پذیر ان پٹ/آؤٹ پٹ پر مبنی asio، بنیادی طور پر صارف کی جگہ میں کام کریں (کرنل کیچنگ میکانزم پر انحصار کم کرنے کے لیے)۔ مزید برآں، ایک نیا ڈیبگنگ سب سسٹم اور ایک نیٹ ورک ایکٹیویٹی اینالائزر پیش کیا جائے گا جس میں پرفارمنس آٹو ٹیوننگ کے لیے سپورٹ ہے۔

LizardFS کلائنٹ ورژن لکھنے کے آپریشنز کے لیے مکمل تعاون کا اضافہ کرے گا، جو ڈیزاسٹر ریکوری کے اعتبار کو بہتر بنائے گا، مختلف کلائنٹس کے ایک ہی ڈیٹا تک رسائی کا اشتراک کرنے پر پیدا ہونے والے مسائل کو حل کرے گا، اور نمایاں کارکردگی میں بہتری کی اجازت دے گا۔ کلائنٹ کو اس کے اپنے نیٹ ورک سب سسٹم میں منتقل کر دیا جائے گا جو صارف کی جگہ پر کام کرتا ہے۔ اگاما پر مبنی LizardFS کا پہلا ورکنگ پروٹو ٹائپ 2020 کی دوسری سہ ماہی میں تیار ہونے کا منصوبہ ہے۔ ایک ہی وقت میں، وہ LizardFS کو Kubernetes پلیٹ فارم کے ساتھ مربوط کرنے کے لیے ٹولز کو لاگو کرنے کا وعدہ کرتے ہیں۔

ماخذ: opennet.ru

نیا تبصرہ شامل کریں