Paskelbtas „OpenChatKit“ – įrankių rinkinys, skirtas pokalbių robotams kurti

Pristatomas OpenChatKit atvirasis įrankių rinkinys, skirtas supaprastinti specializuotoms ir bendroms programoms skirtų pokalbių robotų kūrimą. Sistema pritaikyta atlikti tokias užduotis kaip atsakymas į klausimus, kelių etapų dialogų vedimas, apibendrinimas, informacijos ištraukimas, teksto klasifikavimas. Kodas parašytas Python ir platinamas pagal Apache 2.0 licenciją. Projektas apima paruoštą modelį, kodą jūsų modeliui apmokyti, modelio rezultatų testavimo priemones, modelio papildymo kontekstu iš išorinio indekso ir bazinio modelio pritaikymo jūsų pačių problemoms spręsti.

Botas yra pagrįstas pagrindiniu mašininio mokymosi modeliu (GPT-NeoXT-Chat-Base-20B), sukurtas naudojant kalbos modelį, apimantį apie 20 milijardų parametrų ir optimizuotas bendravimui pokalbyje. Modelis buvo apmokytas naudojant duomenis, gautus iš LAION, Together ir Ontocord.ai projektų kolekcijų.

Esamai žinių bazei plėsti siūloma sistema, galinti išgauti papildomą informaciją iš išorinių saugyklų, API ir kitų šaltinių. Pavyzdžiui, informaciją galima atnaujinti naudojant duomenis iš Vikipedijos ir naujienų kanalų. Be to, galimas moderavimo modelis, parengtas naudojant 6 milijardus parametrų, paremtas GPT-JT modeliu ir skirtas filtruoti netinkamus klausimus arba apriboti diskusijas tam tikromis temomis.

Atskirai galime atkreipti dėmesį į projektą „ChatLLaMA“, kuris siūlo biblioteką intelektualiems pagalbininkams, panašiems į „ChatGPT“, kurti. Projektas plėtojamas atsižvelgiant į galimybę dirbti su savo įranga ir kurti individualizuotus sprendimus, skirtus siauroms žinių sritims (pavyzdžiui, medicina, teisė, žaidimai, moksliniai tyrimai ir kt.). ChatLLaMA kodas yra licencijuotas pagal GPLv3.

Projektas palaiko modelių, pagrįstų LLaMA (Large Language Model Meta AI) architektūra, siūlomą Meta, naudojimą. Visas LLaMA modelis apima 65 milijardus parametrų, tačiau ChatLLaMA rekomenduojama naudoti variantus su 7 ir 13 milijardų parametrų arba GPTJ (6 milijardai), GPTNeoX (1.3 milijardo), 20BOPT (13 milijardo), BLOOM (7.1 milijardo). ir Galactica (6.7 mlrd.) modelių). Iš pradžių LLaMA modeliai pateikiami tik tyrėjams pagal specialų pageidavimą, tačiau kadangi duomenims pristatyti buvo naudojami torrentai, entuziastai paruošė scenarijų, leidžiantį bet kam atsisiųsti modelį.

Šaltinis: opennet.ru

Добавить комментарий