Lêkolîn li ser bandora arîkarên AI-ê yên mîna GitHub Copilot li ser ewlehiya kodê

Tîmek lêkolînerên ji Zanîngeha Stanford bandora karanîna arîkarên kodkirina aqilmend li ser xuyabûna qelsiyên di kodê de lêkolîn kirin. Çareseriyên ku li ser bingeha platforma fêrbûna makîneya OpenAI Codex-ê têne hesibandin, wekî GitHub Copilot, ku destûrê dide hilberîna blokên kodê yên pir tevlihev, heya fonksiyonên amade, têne hesibandin. Fikar ev e ku ji ber ku koda rastîn ji depoyên GitHub yên giştî, tevî yên ku qelsî hene, ji bo perwerdekirina modela fêrbûna makîneyê tê bikar anîn, koda sentezkirî dibe ku xeletiyan dubare bike û koda ku qelsiyan dihewîne pêşniyar bike, û di heman demê de hewcedariya pêkanîna guh nade. dema ku daneyên derveyî têne hilberandin kontrolên zêde.

47 dilxwazên xwedan ezmûnên cihêreng ên di bernamekirinê de beşdarî lêkolînê bûn - ji xwendekar bigire heya pisporên bi deh sal ezmûn. Beşdar li du koman hatin dabeş kirin - ezmûn (33 kes) û kontrol (14 kes). Her du kom gihîştina her pirtûkxane û çavkaniyên Internetnternetê, tevî şiyana karanîna nimûneyên amade ji Stack Overflow. Koma ceribandinê fersend hat dayîn ku arîkarek AI-ê bikar bîne.

Ji her beşdarekî re 5 peywirên têkildarî nivîsandina kodê hatin dayîn ku tê de bi potansiyel hêsan e ku meriv xeletiyên ku dibin sedema qelsbûnê de bike. Mînakî, peywirên li ser nivîsandina fonksiyonên şîfrekirin û deşîfrekirinê, karanîna îmzeyên dîjîtal, hilberandina daneya ku di avakirina rêçên pelan an pirsên SQL de têkildar in, manîpulekirina hejmarên mezin di koda C de, hilgirtina têketina ku di rûpelên malperê de têne xuyang kirin hene. Ji bo ku bandora zimanên bernamekirinê li ser ewlehiya koda ku dema karanîna arîkarên AI-ê têne hilberandin bifikirin, peywiran Python, C û JavaScript vedihewînin.

Wekî encamek, hate dîtin ku beşdarên ku arîkarek AI-ya jîr li ser bingeha modela codex-davinci-002 bikar anîne ji beşdarên ku arîkarek AI-ê bikar neaniye, kodek pir kêmtir ewledar amade kirine. Bi tevayî, tenê 67% ji beşdarên di koma ku alîkarê AI-ê bikar anîn de karîbûn kodek rast û ewledar peyda bikin, dema ku di koma din de ev hejmar 79% bû.

Di heman demê de, nîşanên xwebaweriyê berevajî bûn - beşdarên ku alîkarê AI-ê bikar anîn bawer kirin ku koda wan dê ji ya beşdarên koma din ewletir be. Wekî din, hate destnîşan kirin ku beşdarên ku kêmtir bi arîkarê AI-ê bawer dikin û bêtir wext derbas kirine analîzên ku hatine dayîn û guheztinan li wan dikin, di kodê de kêmtir qelsî çêkirine.

Mînakî, koda ku ji pirtûkxaneyên krîptografîk hatî kopî kirin, ji koda ku ji hêla alîkarê AI-ê ve hatî pêşniyar kirin, nirxên parametreya xwerû ewletir dihewîne. Di heman demê de, dema ku arîkarê AI-ê bikar tîne, bijartina algorîtmayên şîfrekirinê yên kêmtir pêbawer û nebûna kontrolên erêkirinê yên nirxên vegerî hatine tomar kirin. Di peywirek ku bi manîpulasyona hejmarê di C-yê de têkildar e, di koda ku bi karanîna arîkarê AI-yê hatî nivîsandin de bêtir xeletî hatin çêkirin, ku rê li ber zêdekirina hejmarê vedike.

Wekî din, em dikarin lêkolînek bi vî rengî ji hêla komek ji Zanîngeha New York-ê ve, ku di meha Mijdarê de hatî çêkirin, bi tevlêbûna 58 xwendekarên ku ji wan hate xwestin ku avahiyek ji bo hilanîna navnîşek kirrûbirrê bi zimanê C bicîh bikin, destnîşan bikin. Encaman bandorek hindik a alîkarê AI-ê li ser ewlehiya kodê nîşan da - bikarhênerên ku arîkarê AI-ê bikar anîne, bi navînî, bi qasî 10% bêtir xeletiyên têkildarî ewlehiyê çêkirine.

Lêkolîn li ser bandora arîkarên AI-ê yên mîna GitHub Copilot li ser ewlehiya kodê


Source: opennet.ru

Add a comment