ترقی میں ایک سال طویل سست کے بعد
چھپکلی
غلطی کی برداشت کو یقینی بنانے کے لیے، ڈیٹا کو نقلوں میں تقسیم کیا جاتا ہے، جو فالتو پن کے ساتھ مختلف نوڈس میں تقسیم کیے جاتے ہیں (متعدد کاپیاں مختلف نوڈس پر رکھی جاتی ہیں)؛ اگر نوڈس یا ڈرائیوز ناکام ہوجاتی ہیں، تو نظام معلومات کے نقصان کے بغیر کام کرتا رہتا ہے اور ڈیٹا کو خود بخود دوبارہ تقسیم کرتا ہے۔ باقی نوڈس کو مدنظر رکھتے ہوئے اسٹوریج کو بڑھانے کے لیے، دیکھ بھال کے لیے کام کو روکے بغیر اس سے نئے نوڈس کو جوڑنا کافی ہے (سسٹم خود ڈیٹا کے کچھ حصے کو نئے سرورز پر نقل کرتا ہے اور نئے سرورز کو مدنظر رکھتے ہوئے سٹوریج کو متوازن کرتا ہے)۔ آپ کلسٹر کے سائز کو کم کرنے کے لیے بھی ایسا ہی کر سکتے ہیں - آپ آسانی سے ان فرسودہ آلات کو غیر فعال کر سکتے ہیں جو سسٹم سے ہٹائے جا رہے ہیں۔
ڈیٹا اور میٹا ڈیٹا کو الگ الگ ذخیرہ کیا جاتا ہے۔ آپریٹنگ کے لیے، ماسٹر سلیو موڈ میں کام کرنے والے دو میٹا ڈیٹا سرورز کے ساتھ ساتھ کم از کم دو ڈیٹا اسٹوریج سرورز (chunkserver) انسٹال کرنے کی سفارش کی جاتی ہے۔ مزید برآں، میٹا ڈیٹا کو بیک اپ کرنے کے لیے، لاگ سرورز کو میٹا ڈیٹا میں ہونے والی تبدیلیوں کے بارے میں معلومات کو ذخیرہ کرنے کے لیے استعمال کیا جا سکتا ہے اور تمام موجودہ میٹا ڈیٹا سرورز کو نقصان پہنچنے کی صورت میں آپ کو آپریشن بحال کرنے کی اجازت دیتا ہے۔ ہر فائل کو بلاکس (ٹکڑوں) میں تقسیم کیا گیا ہے، جس کا سائز 64 MB تک ہے۔ بلاکس کو سٹوریج سرورز کے درمیان منتخب ریپلیکیشن موڈ کے مطابق تقسیم کیا جاتا ہے: معیاری (مختلف نوڈس پر رکھی جانے والی کاپیوں کی تعداد کا واضح تعین، بشمول انفرادی ڈائریکٹریز کے سلسلے میں - اہم ڈیٹا کے لیے کاپیوں کی تعداد میں اضافہ کیا جا سکتا ہے، اور غیر اہم ڈیٹا کو کم کیا گیا، XOR (RAID5 ) اور EC (RAID6)۔
اسٹوریج پیٹا بائٹ سائز تک بڑھ سکتا ہے۔ ایپلیکیشن کے شعبوں میں آرکائیونگ، ورچوئل مشین امیجز کا ذخیرہ، ملٹی میڈیا ڈیٹا، بیک اپ، ڈی آر سی (ڈیزاسٹر ریکوری سینٹر) کے طور پر استعمال اور اعلیٰ کارکردگی والے کمپیوٹنگ کلسٹرز میں اسٹوریج کے طور پر شامل ہیں۔ LizardFS کسی بھی سائز کی فائلوں کے لیے بہت زیادہ پڑھنے کی رفتار فراہم کرتا ہے، اور لکھتے وقت، یہ پوری بڑی اور درمیانے درجے کی فائلوں کو لکھتے وقت اچھی کارکردگی دکھاتا ہے، جب کوئی مستقل ترمیم نہ ہو، کھلی فائلوں کے ساتھ گہرا کام، اور ایک وقتی آپریشن چھوٹی فائلوں کا ایک گروپ۔
ایف ایس کی خصوصیات میں سے، کوئی اسنیپ شاٹس کے لیے سپورٹ کی موجودگی کو بھی نوٹ کر سکتا ہے، جو ایک مخصوص وقت پر فائلوں کی حالت کو ظاہر کرتا ہے، اور "ری سائیکل بن" کا بلٹ ان نفاذ (فائلیں فوری طور پر حذف نہیں ہوتی ہیں اور ان کے لیے دستیاب ہیں۔ کچھ وقت کے لئے بحالی)۔ پارٹیشن تک رسائی IP ایڈریس یا پاس ورڈ (NFS کی طرح) کے ذریعہ محدود ہوسکتی ہے۔ سروس کے انتظام کے طریقہ کار کا کوٹہ اور معیار موجود ہے جو آپ کو صارفین کی مخصوص قسموں کے لیے سائز اور بینڈوتھ کو محدود کرنے کی اجازت دیتا ہے۔ جغرافیائی طور پر تقسیم شدہ اسٹوریج کی سہولیات بنانا ممکن ہے، جن کے حصے مختلف ڈیٹا سینٹرز میں واقع ہیں۔
LizardFS پروجیکٹ کی بنیاد 2013 میں ایک کانٹے کے طور پر رکھی گئی تھی۔
LizardFS 3.13.0 دسمبر کے آخر میں ریلیز ہونے والا ہے۔ LizardFS 3.13 کی اہم اختراع غلطی برداشت کو یقینی بنانے کے لیے متفقہ الگورتھم کا استعمال ہے (ناکامی کی صورت میں ماسٹر سرور کو تبدیل کرنا)
دیگر تبدیلیاں: FUSE3 سب سسٹم پر مبنی ایک نیا کلائنٹ، غلطی کی اصلاح کے ساتھ مسائل کو حل کرتے ہوئے، nfs-ganesha پلگ ان کو C زبان میں دوبارہ لکھا گیا ہے۔ اپ ڈیٹ 3.13.0-rc2 کئی اہم کیڑے ٹھیک کرتا ہے جنہوں نے 3.13 برانچ کے پچھلے ٹیسٹ ریلیز کو ناقابل استعمال بنا دیا (3.12 برانچ کے لیے اصلاحات ابھی تک شائع نہیں ہوئی ہیں، اور 3.12 سے 3.13 تک کی اپ ڈیٹ اب بھی ڈیٹا کو مکمل نقصان کا باعث بنتی ہے)۔
2020 میں کام کی ترقی پر توجہ دی جائے گی۔
LizardFS کلائنٹ ورژن لکھنے کے آپریشنز کے لیے مکمل تعاون کا اضافہ کرے گا، جو ڈیزاسٹر ریکوری کے اعتبار کو بہتر بنائے گا، مختلف کلائنٹس کے ایک ہی ڈیٹا تک رسائی کا اشتراک کرنے پر پیدا ہونے والے مسائل کو حل کرے گا، اور نمایاں کارکردگی میں بہتری کی اجازت دے گا۔ کلائنٹ کو اس کے اپنے نیٹ ورک سب سسٹم میں منتقل کر دیا جائے گا جو صارف کی جگہ پر کام کرتا ہے۔ اگاما پر مبنی LizardFS کا پہلا ورکنگ پروٹو ٹائپ 2020 کی دوسری سہ ماہی میں تیار ہونے کا منصوبہ ہے۔ ایک ہی وقت میں، وہ LizardFS کو Kubernetes پلیٹ فارم کے ساتھ مربوط کرنے کے لیے ٹولز کو لاگو کرنے کا وعدہ کرتے ہیں۔
ماخذ: opennet.ru