Tîmek lêkolînerên ji Zanîngeha Stanford bandora karanîna arîkarên kodkirina aqilmend li ser xuyabûna qelsiyên di kodê de lêkolîn kirin. Çareseriyên ku li ser bingeha platforma fêrbûna makîneya OpenAI Codex-ê têne hesibandin, wekî GitHub Copilot, ku destûrê dide hilberîna blokên kodê yên pir tevlihev, heya fonksiyonên amade, têne hesibandin. Fikar ev e ku ji ber ku koda rastîn ji depoyên GitHub yên giştî, tevî yên ku qelsî hene, ji bo perwerdekirina modela fêrbûna makîneyê tê bikar anîn, koda sentezkirî dibe ku xeletiyan dubare bike û koda ku qelsiyan dihewîne pêşniyar bike, û di heman demê de hewcedariya pêkanîna guh nade. dema ku daneyên derveyî têne hilberandin kontrolên zêde.
47 dilxwazên xwedan ezmûnên cihêreng ên di bernamekirinê de beşdarî lêkolînê bûn - ji xwendekar bigire heya pisporên bi deh sal ezmûn. Beşdar li du koman hatin dabeş kirin - ezmûn (33 kes) û kontrol (14 kes). Her du kom gihîştina her pirtûkxane û çavkaniyên Internetnternetê, tevî şiyana karanîna nimûneyên amade ji Stack Overflow. Koma ceribandinê fersend hat dayîn ku arîkarek AI-ê bikar bîne.
Ji her beşdarekî re 5 peywirên têkildarî nivîsandina kodê hatin dayîn ku tê de bi potansiyel hêsan e ku meriv xeletiyên ku dibin sedema qelsbûnê de bike. Mînakî, peywirên li ser nivîsandina fonksiyonên şîfrekirin û deşîfrekirinê, karanîna îmzeyên dîjîtal, hilberandina daneya ku di avakirina rêçên pelan an pirsên SQL de têkildar in, manîpulekirina hejmarên mezin di koda C de, hilgirtina têketina ku di rûpelên malperê de têne xuyang kirin hene. Ji bo ku bandora zimanên bernamekirinê li ser ewlehiya koda ku dema karanîna arîkarên AI-ê têne hilberandin bifikirin, peywiran Python, C û JavaScript vedihewînin.
Wekî encamek, hate dîtin ku beşdarên ku arîkarek AI-ya jîr li ser bingeha modela codex-davinci-002 bikar anîne ji beşdarên ku arîkarek AI-ê bikar neaniye, kodek pir kêmtir ewledar amade kirine. Bi tevayî, tenê 67% ji beşdarên di koma ku alîkarê AI-ê bikar anîn de karîbûn kodek rast û ewledar peyda bikin, dema ku di koma din de ev hejmar 79% bû.
Di heman demê de, nîşanên xwebaweriyê berevajî bûn - beşdarên ku alîkarê AI-ê bikar anîn bawer kirin ku koda wan dê ji ya beşdarên koma din ewletir be. Wekî din, hate destnîşan kirin ku beşdarên ku kêmtir bi arîkarê AI-ê bawer dikin û bêtir wext derbas kirine analîzên ku hatine dayîn û guheztinan li wan dikin, di kodê de kêmtir qelsî çêkirine.
Mînakî, koda ku ji pirtûkxaneyên krîptografîk hatî kopî kirin, ji koda ku ji hêla alîkarê AI-ê ve hatî pêşniyar kirin, nirxên parametreya xwerû ewletir dihewîne. Di heman demê de, dema ku arîkarê AI-ê bikar tîne, bijartina algorîtmayên şîfrekirinê yên kêmtir pêbawer û nebûna kontrolên erêkirinê yên nirxên vegerî hatine tomar kirin. Di peywirek ku bi manîpulasyona hejmarê di C-yê de têkildar e, di koda ku bi karanîna arîkarê AI-yê hatî nivîsandin de bêtir xeletî hatin çêkirin, ku rê li ber zêdekirina hejmarê vedike.
Wekî din, em dikarin lêkolînek bi vî rengî ji hêla komek ji Zanîngeha New York-ê ve, ku di meha Mijdarê de hatî çêkirin, bi tevlêbûna 58 xwendekarên ku ji wan hate xwestin ku avahiyek ji bo hilanîna navnîşek kirrûbirrê bi zimanê C bicîh bikin, destnîşan bikin. Encaman bandorek hindik a alîkarê AI-ê li ser ewlehiya kodê nîşan da - bikarhênerên ku arîkarê AI-ê bikar anîne, bi navînî, bi qasî 10% bêtir xeletiyên têkildarî ewlehiyê çêkirine.
Source: opennet.ru