Gepubliseer OpenChatKit, 'n gereedskapstel vir die bou van chatbots

Die OpenChatKit oop gereedskapstel word bekendgestel, wat daarop gemik is om die skepping van chatbots vir gespesialiseerde en algemene toepassings te vereenvoudig. Die stelsel is aangepas om take uit te voer soos om vrae te beantwoord, multi-stadium dialoë te voer, op te som, inligting te onttrek, teks te klassifiseer. Die kode is in Python geskryf en onder die Apache 2.0-lisensie versprei. Die projek sluit 'n klaargemaakte model in, kode vir die opleiding van jou model, hulpmiddels om die resultate van die model te toets, hulpmiddels om die model aan te vul met konteks van 'n eksterne indeks en die aanpassing van die basismodel om jou eie probleme op te los.

Die bot is gebaseer op 'n basiese masjienleermodel (GPT-NeoXT-Chat-Base-20B), gebou met 'n taalmodel wat ongeveer 20 miljard parameters dek en geoptimaliseer vir gesprekskommunikasie. Die model is opgelei met behulp van data verkry uit die versamelings van die LAION-, Together- en Ontocord.ai-projekte.

Om die bestaande kennisbasis uit te brei, word 'n stelsel voorgestel wat in staat is om bykomende inligting uit eksterne bewaarplekke, API's en ander bronne te onttrek. Dit is byvoorbeeld moontlik om inligting op te dateer met behulp van data van Wikipedia en nuusstrome. Daarbenewens is 'n modereringsmodel beskikbaar, opgelei met 6 miljard parameters, gebaseer op die GPT-JT-model, en ontwerp om onvanpaste vrae te filter of besprekings tot sekere onderwerpe te beperk.

Afsonderlik kan ons let op die ChatLLaMA-projek, wat 'n biblioteek bied om intelligente assistente soortgelyk aan ChatGPT te skep. Die projek ontwikkel met die oog op die moontlikheid om op sy eie toerusting te werk en om gepersonaliseerde oplossings te skep wat ontwerp is om smal kennisareas te dek (byvoorbeeld medisyne, regte, speletjies, wetenskaplike navorsing, ens.). Die ChatLLaMA-kode is onder die GPLv3 gelisensieer.

Die projek ondersteun die gebruik van modelle gebaseer op die LLaMA (Large Language Model Meta AI) argitektuur wat deur Meta voorgestel is. Die volledige LLaMA-model dek 65 miljard parameters, maar vir ChatLLaMA word dit aanbeveel om die variante met 7 en 13 miljard parameters of die GPTJ (6 miljard), GPTNeoX (1.3 miljard), 20BOPT (13 miljard), BLOOM (7.1 miljard) te gebruik. en Galactica (6.7 miljard) modelle ). Aanvanklik word LLaMA-modelle slegs op spesiale versoek aan navorsers verskaf, maar aangesien torrents gebruik is om die data te lewer, het entoesiaste 'n skrif voorberei wat enigiemand toelaat om die model af te laai.

Bron: opennet.ru

Voeg 'n opmerking