د کوډ امنیت باندې د GitHub Copilot په څیر د AI معاونینو اغیزې څیړنه

د سټینفورډ پوهنتون د څیړونکو یوې ډلې په کوډ کې د زیانونو په څرګندیدو باندې د هوښیار کوډینګ معاونینو کارولو اغیزې مطالعه کړې. د OpenAI کوډیکس ماشین زده کړې پلیټ فارم پراساس حلونه په پام کې نیول شوي، لکه د GitHub Copilot، کوم چې د کافي پیچلي کوډ بلاکونو تولید ته اجازه ورکوي، تر چمتو شوي فعالیتونو پورې. اندیښنه دا ده چې له هغه وخته چې د عامه GitHub ذخیرې څخه ریښتیني کوډ ، پشمول د هغه زیانونو لرونکي چې د ماشین زده کړې ماډل روزنې لپاره کارول کیږي ، ترکیب شوی کوډ ممکن غلطۍ تکرار کړي او کوډ وړاندیز وکړي چې زیانونه لري ، او د ترسره کولو اړتیا هم په پام کې نه نیسي. اضافي چکونه کله چې د بهرني معلوماتو پروسس کول.

47 رضاکاران چې په پروګرام کولو کې مختلفې تجربې لري په دې څیړنه کې برخه اخیستې وه - له زده کونکو څخه مسلکيانو ته چې لس کاله تجربه لري. ګډونوال په دوو ډلو ویشل شوي وو - تجربه لرونکي (33 کسان) او کنټرول (14 کسان). دواړه ډلې هر کتابتونونو او انټرنیټ سرچینو ته لاسرسی درلود ، پشمول د Stack Overflow څخه د چمتو شوي مثالونو کارولو وړتیا. تجربې ډلې ته د AI معاون کارولو فرصت ورکړل شو.

هر ګډونوال ته د کوډ لیکلو پورې اړوند 5 دندې ورکړل شوې چې په احتمالي توګه د غلطیو رامینځته کول اسانه دي چې د زیانونو لامل کیږي. د مثال په توګه، د کوډ کولو او ډیکریپشن دندو لیکلو دندې شتون درلود، د ډیجیټل لاسلیکونو کارول، د ډیټا پروسس کول چې د فایل لارو یا SQL پوښتنو په جوړولو کې ښکیل دي، په C کوډ کې د لوی شمیر لاسوهنه، په ویب پاڼو کې ښودل شوي ان پټ پروسس کول. د AI معاونینو کارولو په وخت کې د تولید شوي کوډ امنیت باندې د پروګرام کولو ژبو اغیزې په پام کې نیولو لپاره، دندې د Python، C، او JavaScript پوښلي.

د پایلې په توګه، دا وموندل شوه چې هغه برخه اخیستونکي چې د کوډیکس-davinci-002 موډل پراساس یو هوښیار AI معاون کارولی د هغو برخه والو په پرتله چې د AI معاون نه کاروي د پام وړ کم خوندي کوډ چمتو کړی. په ټولیز ډول، په ګروپ کې یوازې 67٪ برخه اخیستونکي چې د AI معاون یې کارولي و توانیدلي چې سم او خوندي کوډ چمتو کړي، پداسې حال کې چې په بله ډله کې دا شمیره 79٪ وه.

په ورته وخت کې، د ځان درناوي شاخصونه مخالف وو - هغه برخه اخیستونکي چې د AI مرستیال یې کارولي باور لري چې د دوی کوډ به د بلې ډلې د ګډون کوونکو په پرتله ډیر خوندي وي. سربیره پردې ، دا یادونه وشوه چې هغه برخه اخیستونکي چې د AI معاون باندې لږ باور لري او د ورکړل شوي وړاندیزونو تحلیل کولو او په دوی کې د بدلونونو رامینځته کولو ډیر وخت مصرف کړی په کوډ کې لږ زیانونه رامینځته کړي.

د مثال په توګه، د کریپټوګرافیک کتابتونونو څخه کاپي شوي کوډ د AI معاون لخوا وړاندیز شوي کوډ څخه ډیر خوندي ډیفالټ پیرامیټر ارزښتونه لري. همچنان ، کله چې د AI معاون وکاروئ ، د لږ باوري کوډ کولو الګوریتمونو انتخاب او د بیرته راستنیدونکو ارزښتونو د تصدیق چیک نشتوالی ثبت شوي. په هغه دنده کې چې په C کې د شمیرې لاسوهنه پکې شامله وه ، د AI معاون په کارولو سره لیکل شوي کوډ کې ډیرې غلطۍ رامینځته شوې ، چې د انټر فلو لامل کیږي.

برسیره پردې، موږ کولی شو د نیویارک پوهنتون د یوې ډلې لخوا ورته مطالعې یادونه وکړو، چې په نومبر کې ترسره شوې، 58 زده کونکي پکې شامل وو چې په C ژبه کې د پیرود لیست پروسس کولو لپاره د جوړښت پلي کولو غوښتنه کوله. پایلو د کوډ امنیت باندې د AI معاون نه منفي اغیزه ښودلې - هغه کاروونکو چې د AI معاون کارولي په اوسط ډول شاوخوا 10٪ ډیر امنیت پورې اړوند غلطۍ رامینځته کړي.

د کوډ امنیت باندې د GitHub Copilot په څیر د AI معاونینو اغیزې څیړنه


سرچینه: opennet.ru

Add a comment