Tehisintellekti valdkonna avalikke projekte arendav OpenAI projekt on välja andnud Transformer Debuggeri, mis on mõeldud masinõppe keelemudelites struktuuride aktiveerimise analüüsimiseks teatud andmete töötlemisel. Nagu traditsioonilised silurid, toetab ka Transformer Debugger samm-sammult navigeerimist mudeli väljundi, jälgimise ja konkreetse tegevuse pealtkuulamise kaudu. Üldiselt võimaldab Transformer Debugger mõista, miks keelemudel kuvab vastuseks teatud päringule ühe märgi teise asemel või miks mudel pöörab päringus rohkem tähelepanu teatud märkidele. Kood on kirjutatud Pythonis ja seda levitatakse MIT-i litsentsi all.
Kompositsioon sisaldab järgmisi komponente:
- Neuronide vaatur on navigeerija üksikute mudelikomponentide, nagu MLP neuronite, tähelepanu fookuste ja peidetud autoencoder esituste kaudu.
- Aktiveerimisserver on serveri taustaprogramm, mis suhtleb sõelutava mudeliga ja hangib siluri jaoks andmeid.
- Mudelid on raamatukogu GPT-2 keelemudelite ja neis kasutatavate automaatkodeerijatega suhtlemiseks, pakkudes aktiveerimiste pealtkuulamiseks töötlejate asendamist.
- Näited MLP-neuronite, tähelepanufookuste ja autoenkooderite varjatud esituste andmestike aktiveerimise kohta.
Allikas: opennet.ru
