Publicēts OpenChatKit — rīku komplekts tērzēšanas robotu izveidei

Tiek prezentēts OpenChatKit atvērtā pirmkoda rīku komplekts, kura mērķis ir vienkāršot tērzēšanas robotu izveidi specializētai un vispārējai lietošanai. Sistēma ir pielāgota tādu uzdevumu veikšanai kā atbildēšana uz jautājumiem, daudzpakāpju dialogu vadīšana, apkopošana, informācijas iegūšana un teksta klasificēšana. Kods ir rakstīts Python un tiek izplatīts saskaņā ar Apache 2.0 licenci. Projekts ietver gatavu modeli, kodu sava modeļa apmācībai, utilītus modeļa rezultātu testēšanai, rīkus modeļa papildināšanai ar kontekstu no ārējā indeksa un bāzes modeļa pielāgošanu savu problēmu risināšanai.

Bots ir balstīts uz pamata mašīnmācīšanās modeli (GPT-NeoXT-Chat-Base-20B), kas izveidots, izmantojot valodas modeli, kas aptver aptuveni 20 miljardus parametru un ir optimizēts sarunvalodas saziņai. Modeļa apmācībai tika izmantoti dati, kas iegūti no LAION, Together un Ontocord.ai projektu kolekcijām.

Lai paplašinātu esošo zināšanu bāzi, tiek piedāvāta sistēma, kas var iegūt papildu informāciju no ārējiem repozitorijiem, API un citiem avotiem. Piemēram, ir iespējams atjaunināt informāciju, izmantojot datus no Wikipedia un ziņu plūsmām. Ir pieejams izvēles moderēšanas modelis, kas apmācīts uz 6 miljardiem parametru un balstīts uz GPT-JT modeli, lai filtrētu nepiemērotus jautājumus vai ierobežotu diskusijas par konkrētām tēmām.

Atsevišķi var minēt projektu ChatLLaMA, kas piedāvā bibliotēku viedo palīgu izveidei, kas ir līdzīgi ChatGPT. Projekts tiek izstrādāts, ņemot vērā iespēju darboties ar savu aprīkojumu un radīt personalizētus risinājumus, kas paredzēti šaurām zināšanu jomām (piemēram, medicīna, jurisprudence, spēles, zinātniskie pētījumi utt.). ChatLLaMA kods ir licencēts saskaņā ar GPLv3.

Projekts atbalsta tādu modeļu izmantošanu, kuru pamatā ir Meta piedāvātā LLaMA (Large Language Model Meta AI) arhitektūra. Pilns LLaMA modelis aptver 65 miljardus parametru, bet ChatLLaMA ir ieteicams izmantot opcijas ar 7 un 13 miljardiem parametru vai GPTJ (6 miljardi), GPTNeoX (1.3 miljardi), 20BOPT (13 miljardi), BLOOM (7.1 miljards) un Galactica (6.7 miljardi) modeļi). Sākotnēji LLaMA modeļi tika piegādāti tikai pētniekiem pēc īpaša pieprasījuma, taču, tā kā datu piegādei tika izmantoti torrenti, entuziasti sagatavoja skriptu, kas ļāva ikvienam lejupielādēt modeli.

Avots: opennet.ru

Pievieno komentāru