OpenAI projekts ir atvēris Transformer Debugger ā€” maŔīnmācīŔanās modeļu atkļūdotāju

OpenAI projekts, kas izstrādā publiskos projektus mākslÄ«gā intelekta jomā, ir publicējis Transformer Debugger, kas paredzēts, lai analizētu struktÅ«ru aktivizēŔanu maŔīnmācīŔanās valodu modeļos, apstrādājot noteiktus datus. Tāpat kā tradicionālie atkļūdotāji, Transformer Debugger atbalsta pakāpenisku navigāciju, izmantojot modeļa izvadi, izsekoÅ”anu un konkrētu darbÄ«bu pārtverÅ”anu. Kopumā Transformer Debugger ļauj saprast, kāpēc valodas modelis parāda vienu marÄ·ieri, nevis citu, atbildot uz noteiktu pieprasÄ«jumu, vai kāpēc modelis pievērÅ” lielāku uzmanÄ«bu noteiktiem marÄ·ieriem pieprasÄ«jumā. Kods ir rakstÄ«ts Python un tiek izplatÄ«ts saskaņā ar MIT licenci.

Kompozīcijā ietilpst Ŕādas sastāvdaļas:

  • Neironu skatÄ«tājs ir navigators, izmantojot atseviŔķus modeļa komponentus, piemēram, MLP neironus, uzmanÄ«bas fokusus un slēptos autokodētāja attēlojumus.
  • Aktivizācijas serveris ir servera aizmugursistēma, kas mijiedarbojas ar parsējamo modeli un izgÅ«st datus atkļūdotājam.
  • Modeļi ir bibliotēka mijiedarbÄ«bai ar GPT-2 valodu modeļiem un tajos izmantotajiem automātiskajiem kodētājiem, nodroÅ”inot apdarinātāju aizstāŔanu, lai pārtvertu aktivizācijas.
  • Piemēri datu kopu aktivizēŔanai MLP neironiem, uzmanÄ«bas fokusiem un latentiem autokodētāju attēlojumiem.

Avots: opennet.ru

Pievieno komentāru