شائع شدہ OpenChatKit، چیٹ بوٹس بنانے کے لیے ایک ٹول کٹ

OpenChatKit اوپن ٹول کٹ متعارف کرائی گئی ہے، جس کا مقصد خصوصی اور عام ایپلی کیشنز کے لیے چیٹ بوٹس کی تخلیق کو آسان بنانا ہے۔ اس نظام کو سوالات کے جوابات دینے، ملٹی اسٹیج ڈائیلاگ کرنے، خلاصہ کرنے، معلومات کو نکالنے، متن کی درجہ بندی جیسے کاموں کو انجام دینے کے لیے ڈھال لیا گیا ہے۔ کوڈ Python میں لکھا گیا ہے اور Apache 2.0 لائسنس کے تحت تقسیم کیا گیا ہے۔ اس پروجیکٹ میں ایک ریڈی میڈ ماڈل، آپ کے ماڈل کی تربیت کے لیے کوڈ، ماڈل کے نتائج کو جانچنے کے لیے یوٹیلیٹیز، ایکسٹرنل انڈیکس کے سیاق و سباق کے ساتھ ماڈل کی تکمیل کے لیے ٹولز اور آپ کے اپنے مسائل کو حل کرنے کے لیے بیس ماڈل کو اپنانا شامل ہے۔

یہ بوٹ ایک بنیادی مشین لرننگ ماڈل (GPT-NeoXT-Chat-Base-20B) پر مبنی ہے، جسے تقریباً 20 بلین پیرامیٹرز پر محیط ایک زبان کے ماڈل کا استعمال کرتے ہوئے بنایا گیا ہے اور بات چیت کے لیے موزوں ہے۔ ماڈل کو LAION، Together اور Ontocord.ai پروجیکٹس کے مجموعوں سے حاصل کردہ ڈیٹا کا استعمال کرتے ہوئے تربیت دی گئی۔

موجودہ علمی بنیاد کو بڑھانے کے لیے، ایک ایسا نظام تجویز کیا گیا ہے جو بیرونی ذخیروں، APIs اور دیگر ذرائع سے اضافی معلومات حاصل کرنے کے قابل ہو۔ مثال کے طور پر، ویکیپیڈیا اور نیوز فیڈز کے ڈیٹا کا استعمال کرتے ہوئے معلومات کو اپ ڈیٹ کرنا ممکن ہے۔ مزید برآں، ایک اعتدال پسند ماڈل دستیاب ہے، جو GPT-JT ماڈل کی بنیاد پر 6 بلین پیرامیٹرز کے ساتھ تربیت یافتہ ہے، اور نامناسب سوالات کو فلٹر کرنے یا بحث کو مخصوص موضوعات تک محدود کرنے کے لیے ڈیزائن کیا گیا ہے۔

الگ سے، ہم ChatLLaMA پروجیکٹ کو نوٹ کر سکتے ہیں، جو ChatGPT کی طرح ذہین معاون بنانے کے لیے ایک لائبریری پیش کرتا ہے۔ یہ پروجیکٹ اپنے آلات پر چلنے اور علم کے تنگ شعبوں (مثال کے طور پر، طب، قانون، کھیل، سائنسی تحقیق، وغیرہ) کا احاطہ کرنے کے لیے ڈیزائن کردہ ذاتی حل تیار کرنے کے امکان کو مدنظر رکھتے ہوئے ترقی کر رہا ہے۔ ChatLLaMA کوڈ GPLv3 کے تحت لائسنس یافتہ ہے۔

یہ پروجیکٹ میٹا کے تجویز کردہ ایل ایل اے ایم اے (لارج لینگویج ماڈل میٹا اے آئی) فن تعمیر پر مبنی ماڈلز کے استعمال کی حمایت کرتا ہے۔ مکمل LLaMA ماڈل 65 بلین پیرامیٹرز کا احاطہ کرتا ہے، لیکن ChatLLaMA کے لیے 7 اور 13 بلین پیرامیٹرز یا GPTJ (6 بلین)، GPTNeoX (1.3 بلین)، 20BOPT (13 بلین)، BLOOM (7.1 بلین) کے ساتھ متغیرات استعمال کرنے کی سفارش کی جاتی ہے۔ اور Galactica (6.7 بلین) ماڈلز)۔ ابتدائی طور پر، LLaMA ماڈلز صرف محققین کو خصوصی درخواست پر فراہم کیے جاتے ہیں، لیکن چونکہ ڈیٹا ڈیلیور کرنے کے لیے ٹورینٹ کا استعمال کیا جاتا تھا، اس لیے پرجوش افراد نے ایک اسکرپٹ تیار کیا ہے جو کسی کو بھی ماڈل ڈاؤن لوڈ کرنے کی اجازت دیتا ہے۔

ماخذ: opennet.ru

نیا تبصرہ شامل کریں