کوڈ سیکیورٹی پر GitHub Copilot جیسے AI معاونین کے اثرات پر تحقیق کریں۔

اسٹینفورڈ یونیورسٹی کے محققین کی ایک ٹیم نے کوڈ میں کمزوریوں کی ظاہری شکل پر ذہین کوڈنگ معاونین کے استعمال کے اثرات کا مطالعہ کیا۔ OpenAI Codex مشین لرننگ پلیٹ فارم پر مبنی حل پر غور کیا گیا، جیسے GitHub Copilot، جو کافی پیچیدہ کوڈ بلاکس تیار کرنے کے لیے تیار فنکشنز تک کی اجازت دیتا ہے۔ تشویش کی بات یہ ہے کہ چونکہ عوامی GitHub ذخیروں کا اصلی کوڈ، بشمول کمزوریوں پر مشتمل، مشین لرننگ ماڈل کو تربیت دینے کے لیے استعمال کیا جاتا ہے، اس لیے ترکیب شدہ کوڈ غلطیوں کو دہرا سکتا ہے اور کوڈ تجویز کر سکتا ہے جس میں کمزوریاں ہوں، اور انجام دینے کی ضرورت کو بھی مدنظر نہیں رکھا جاتا۔ بیرونی ڈیٹا کی پروسیسنگ کے دوران اضافی چیکس۔

پروگرامنگ میں مختلف تجربہ رکھنے والے 47 رضاکار اس مطالعہ میں شامل تھے - طلباء سے لے کر پیشہ ور افراد تک جو دس سال کا تجربہ رکھتے ہیں۔ شرکاء کو دو گروپوں میں تقسیم کیا گیا - تجرباتی (33 افراد) اور کنٹرول (14 افراد)۔ دونوں گروپوں کو کسی بھی لائبریری اور انٹرنیٹ وسائل تک رسائی حاصل تھی، بشمول اسٹیک اوور فلو سے تیار شدہ مثالیں استعمال کرنے کی صلاحیت۔ تجرباتی گروپ کو اے آئی اسسٹنٹ استعمال کرنے کا موقع دیا گیا۔

ہر شریک کو کوڈ لکھنے سے متعلق 5 کام دیے گئے جن میں ممکنہ طور پر ایسی غلطیاں کرنا آسان ہے جو خطرات کا باعث بنتی ہیں۔ مثال کے طور پر، انکرپشن اور ڈکرپشن فنکشنز لکھنے، ڈیجیٹل دستخطوں کا استعمال، فائل پاتھ یا ایس کیو ایل کے سوالات کی تشکیل میں شامل ڈیٹا پر کارروائی، سی کوڈ میں بڑی تعداد میں ہیرا پھیری، ویب صفحات میں دکھائے جانے والے ان پٹ پر کارروائی کرنے کے کام تھے۔ AI معاونین کا استعمال کرتے وقت تیار کردہ کوڈ کی حفاظت پر پروگرامنگ زبانوں کے اثرات پر غور کرنے کے لیے، اسائنمنٹس میں Python، C، اور JavaScript شامل ہیں۔

نتیجے کے طور پر، یہ پتہ چلا کہ کوڈیکس-ڈاونچی-002 ماڈل پر مبنی ایک ذہین AI اسسٹنٹ استعمال کرنے والے شرکاء نے AI اسسٹنٹ کا استعمال نہ کرنے والے شرکاء کے مقابلے میں نمایاں طور پر کم محفوظ کوڈ تیار کیا۔ مجموعی طور پر، گروپ میں صرف 67% شرکاء جنہوں نے AI اسسٹنٹ کا استعمال کیا وہ درست اور محفوظ کوڈ فراہم کرنے کے قابل تھے، جب کہ دوسرے گروپ میں یہ تعداد 79% تھی۔

ایک ہی وقت میں، خود اعتمادی کے اشارے اس کے برعکس تھے - شرکاء جنہوں نے AI اسسٹنٹ کا استعمال کیا ان کا خیال تھا کہ ان کا کوڈ دوسرے گروپ کے شرکاء کے مقابلے میں زیادہ محفوظ ہوگا۔ اس کے علاوہ، یہ بھی نوٹ کیا گیا کہ جن شرکاء نے AI اسسٹنٹ پر کم بھروسہ کیا اور دیے گئے پرامپٹس کا تجزیہ کرنے اور ان میں تبدیلیاں کرنے میں زیادہ وقت صرف کیا، انہوں نے کوڈ میں کمزوریاں کم کیں۔

مثال کے طور پر، کرپٹوگرافک لائبریریوں سے کاپی کردہ کوڈ میں AI اسسٹنٹ کے تجویز کردہ کوڈ سے زیادہ محفوظ ڈیفالٹ پیرامیٹر ویلیوز شامل ہیں۔ اس کے علاوہ، AI اسسٹنٹ کا استعمال کرتے وقت، کم قابل بھروسہ انکرپشن الگورتھم کا انتخاب اور واپس آنے والی اقدار کی تصدیقی جانچ کی کمی کو ریکارڈ کیا گیا۔ C میں نمبروں کی ہیرا پھیری کے ایک کام میں، AI اسسٹنٹ کا استعمال کرتے ہوئے لکھے گئے کوڈ میں مزید غلطیاں کی گئیں، جس کی وجہ سے انٹیجر اوور فلو ہوا۔

مزید برآں، ہم نیویارک یونیورسٹی کے ایک گروپ کی طرف سے اسی طرح کی ایک تحقیق کو نوٹ کر سکتے ہیں، جو نومبر میں کی گئی تھی، جس میں 58 طلباء شامل تھے جنہیں سی زبان میں خریداری کی فہرست پر کارروائی کرنے کے لیے ایک ڈھانچہ نافذ کرنے کے لیے کہا گیا تھا۔ نتائج نے کوڈ سیکیورٹی پر AI اسسٹنٹ کا بہت کم اثر دکھایا — جن صارفین نے AI اسسٹنٹ کا استعمال کیا، اوسطاً، تقریباً 10% زیادہ سیکیورٹی سے متعلق غلطیاں ہوئیں۔

کوڈ سیکیورٹی پر GitHub Copilot جیسے AI معاونین کے اثرات پر تحقیق کریں۔


ماخذ: opennet.ru

نیا تبصرہ شامل کریں