Predstavljen je OpenChatKit, komplet orodij z odprto kodo, zasnovan za poenostavitev ustvarjanja klepetalnih robotov za specializirane in splošne aplikacije. Sistem je prilagojen za naloge, kot so odgovarjanje na vprašanja, vodenje večstopenjskih dialogov, povzemanje, pridobivanje informacij in razvrščanje besedila. Koda je napisana v Pythonu in distribuirana pod licenco Apache 2.0. Projekt vključuje že pripravljen model, kodo za učenje lastnega modela, pripomočke za testiranje delovanja modela, orodja za dopolnjevanje modela s kontekstom iz zunanjega indeksa in prilagajanje osnovnega modela za reševanje specifičnih problemov.
Bot temelji na osnovnem modelu strojnega učenja (GPT-NeoXT-Chat-Base-20B), zgrajenem z jezikovnim modelom, ki zajema približno 20 milijard parametrov in je optimiziran za pogovorno komunikacijo. Za učenje modela so bili uporabljeni podatki iz projektov LAION, Together in Ontocord.ai.
Za razširitev obstoječe baze znanja je predlagan sistem, ki lahko pridobi dodatne informacije iz zunanjih repozitorijev, API-jev in drugih virov. Informacije je mogoče na primer posodobiti z uporabo podatkov iz Wikipedije in novic. Na voljo je tudi model moderiranja, usposobljen z uporabo 6 milijard parametrov in ki temelji na modelu GPT-JT, zasnovan pa je za filtriranje neprimernih vprašanj ali omejevanje razprav na določene teme.
Posebej velja omeniti projekt ChatLLaMA, ki ponuja knjižnico za ustvarjanje inteligentnih pomočnikov, podobnih ChatGPT. Projekt se razvija z namenom delovanja na strojni opremi po meri in ustvarjanja prilagojenih rešitev, zasnovanih za specifična področja strokovnega znanja (npr. medicina, pravo, igre na srečo, znanstvene raziskave itd.). Koda ChatLLaMA je licencirana pod licenco GPLv3.
Projekt podpira uporabo modelov, ki temeljijo na arhitekturi LLaMA (Large Language Model Meta AI), ki jo predlaga Meta. Celoten model LLaMA zajema 65 milijard parametrov, za ChatLLaMA pa so priporočene možnosti različice s 7 in 13 milijardami parametrov oziroma modeli GPTJ (6 milijard), GPTNeoX (1.3 milijarde), 20BOPT (13 milijard), BLOOM (7.1 milijarde) in Galactica (6.7 milijarde). Sprva so bili modeli LLaMA raziskovalcem na voljo le na posebno zahtevo, ker pa so se za dostavo podatkov uporabljali torrenti, so navdušenci pripravili skript, ki omogoča prenos modela vsakomur.
Vir: opennet.ru
