Utafiti juu ya athari za wasaidizi wa AI kama GitHub Copilot kwenye usalama wa nambari

Timu ya watafiti kutoka Chuo Kikuu cha Stanford ilichunguza athari za kutumia wasaidizi wa usimbaji mahiri juu ya kuonekana kwa udhaifu katika msimbo. Masuluhisho kulingana na jukwaa la kujifunza mashine la OpenAI Codex yalizingatiwa, kama vile GitHub Copilot, ambayo inaruhusu uundaji wa vizuizi changamano vya msimbo, hadi vitendakazi vilivyotengenezwa tayari. Wasiwasi ni kwamba kwa vile msimbo halisi kutoka hazina za umma za GitHub, ikiwa ni pamoja na zile zilizo na udhaifu, hutumiwa kutoa mafunzo kwa modeli ya kujifunza kwa mashine, msimbo uliosanisishwa unaweza kurudia makosa na kupendekeza msimbo ambao una udhaifu, na pia hauzingatii hitaji la kutekeleza. ukaguzi wa ziada wakati wa usindikaji wa data ya nje.

Wajitolea 47 walio na uzoefu tofauti katika upangaji walihusika katika utafiti - kutoka kwa wanafunzi hadi wataalamu wenye uzoefu wa miaka kumi. Washiriki waligawanywa katika vikundi viwili - majaribio (watu 33) na udhibiti (watu 14). Vikundi vyote viwili vilikuwa na ufikiaji wa maktaba na rasilimali zozote za Mtandao, ikijumuisha uwezo wa kutumia mifano iliyotengenezwa tayari kutoka kwa Stack Overflow. Kikundi cha majaribio kilipewa fursa ya kutumia msaidizi wa AI.

Kila mshiriki alipewa kazi 5 zinazohusiana na kuandika msimbo ambapo kuna uwezekano rahisi kufanya makosa ambayo husababisha udhaifu. Kwa mfano, kulikuwa na kazi za kuandika kazi za usimbaji fiche na usimbuaji, kwa kutumia saini za dijiti, usindikaji wa data inayohusika katika uundaji wa njia za faili au maswali ya SQL, kudhibiti idadi kubwa katika nambari ya C, usindikaji wa pembejeo unaoonyeshwa kwenye kurasa za wavuti. Kuzingatia athari za lugha za programu kwenye usalama wa msimbo unaozalishwa wakati wa kutumia wasaidizi wa AI, mgawo ulijumuisha Python, C, na JavaScript.

Kwa hivyo, ilibainika kuwa washiriki ambao walitumia msaidizi wa AI mwenye akili kulingana na mfano wa codex-davinci-002 walitayarisha msimbo usio salama sana kuliko washiriki ambao hawakutumia msaidizi wa AI. Kwa ujumla, ni 67% tu ya washiriki katika kikundi kilichotumia msaidizi wa AI waliweza kutoa nambari sahihi na salama, wakati katika kundi lingine takwimu hii ilikuwa 79%.

Wakati huo huo, viashiria vya kujithamini vilikuwa kinyume - washiriki ambao walitumia msaidizi wa AI waliamini kuwa nambari zao zitakuwa salama zaidi kuliko za washiriki kutoka kwa kikundi kingine. Kwa kuongezea, ilibainika kuwa washiriki ambao walimwamini Msaidizi wa AI kidogo na walitumia muda mwingi kuchambua vidokezo vilivyotolewa na kufanya mabadiliko kwao walifanya udhaifu mdogo katika kanuni.

Kwa mfano, msimbo ulionakiliwa kutoka kwa maktaba za kriptografia ulikuwa na thamani za kigezo zilizo salama zaidi kuliko msimbo uliopendekezwa na Mratibu wa AI. Pia, wakati wa kutumia msaidizi wa AI, chaguo la algorithms isiyoaminika ya usimbuaji na ukosefu wa ukaguzi wa uthibitishaji wa maadili yaliyorejeshwa yalirekodiwa. Katika kazi inayohusisha upotoshaji wa nambari katika C, makosa zaidi yalifanywa katika nambari iliyoandikwa kwa kutumia msaidizi wa AI, na kusababisha kufurika kwa nambari kamili.

Zaidi ya hayo, tunaweza kutambua utafiti sawa na kikundi kutoka Chuo Kikuu cha New York, uliofanywa mnamo Novemba, ukihusisha wanafunzi 58 ambao waliulizwa kutekeleza muundo wa kuchakata orodha ya ununuzi katika lugha ya C. Matokeo yalionyesha athari ndogo ya msaidizi wa AI kwenye usalama wa nambari - watumiaji ambao walitumia msaidizi wa AI walifanya, kwa wastani, kama makosa 10% zaidi yanayohusiana na usalama.

Utafiti juu ya athari za wasaidizi wa AI kama GitHub Copilot kwenye usalama wa nambari


Chanzo: opennet.ru

Kuongeza maoni