Апублікаваны OpenChatKit, інструментар для стварэння ботаў

Прадстаўлены адкрыты інструментарый OpenChatKit, накіраваны на спрашчэнне стварэння чботаў для спецыялізаванага і агульнага прымянення. Сістэма адаптаваная для выканання такіх задач, як адказы на пытанні, вядзенне шматэтапных дыялогаў, абагульненне, атрыманне інфармацыі, класіфікацыя тэксту. Код напісаны на мове Python і распаўсюджваецца пад ліцэнзіяй Apache 2.0. У склад праекта ўваходзіць гатовая мадэль, код для трэніроўкі сваёй мадэлі, утыліты для тэсціравання вынікаў працы мадэлі, сродкі для дапаўнення мадэлі кантэкстам са знешняга індэкса і адаптацыі базавай мадэлі да вырашэння ўласных задач.

У якасці асновы робата прапануецца базавая мадэль машыннага навучання (GPT-NeoXT-Chat-Base-20B), пабудаваная пры дапамозе моўнай мадэлі, якая ахоплівае каля 20 мільярдаў параметраў і аптымізаваная для гутарковых зносін. Для навучання мадэлі скарыстаны дадзеныя, атрыманыя з калекцый праектаў LAION, Together і Ontocord.ai.

Для пашырэння наяўнай базы ведаў прапануецца сістэма, здольная здабываць дадатковую інфармацыю са знешніх рэпазітароў, API і іншых крыніц. Напрыклад, магчымая актуалізацыя інфармацыі з выкарыстаннем дадзеных з Wikipedia і стужак навін. Дадаткова даступная мадэль для мадэравання, натрэніраваная з выкарыстаннем 6 мільярдаў параметраў, заснаваная на мадэлі GPT-JT і прызначаная для фільтрацыі непрымальных пытанняў або абмежавання дыскусій у рамках пэўных тэм.

Асобна можна адзначыць праект ChatLLaMA, які прапануе бібліятэку для стварэння інтэлектуальных памагатых, падобных на ChatGPT. Праект развіваецца з аглядкай на магчымасць выканання на ўласным абсталяванні і стварэнні персаналізаваных рашэнняў, разлічаных на ахоп вузкіх абласцей ведаў (напрыклад, медыцына, юрыспрудэнцыя, гульні, навуковыя даследаванні і да т.п.). Код ChatLLaMA пастаўляецца пад ліцэнзіяй GPLv3.

Праект падтрымлівае выкарыстанне мадэляў на базе архітэктуры LLaMA (Large Language Model Meta AI), прапанаванай кампаніяй Meta. Поўная мадэль LLaMA ахоплівае 65 мільярдаў параметраў, але для ChatLLaMA рэкамендуецца выкарыстоўваць варыянты з 7 і 13 мільярдамі параметраў або мадэлі GPTJ (6 млрд), GPTNeoX (1.3 млрд), 20BOPT (13 млрд), BLOOM (7.1 млрд) і Galactica (6.7 млдр) ). Першапачаткова мадэлі LLaMA пастаўляюцца толькі даследнікам па адмысловым запыце, але бо для дастаўкі дадзеных выкарыстоўваліся торэнты, энтузіясты падрыхтавалі скрыпт, які дазваляе загрузіць мадэль любому жадаючаму.

Крыніца: opennet.ru

Дадаць каментар