Објавио ОпенЦхатКит, комплет алата за прављење цхатбота

Представљен је ОпенЦхатКит комплет алата отвореног кода, који има за циљ да поједностави креирање цхат робота за специјализовану и општу употребу. Систем је прилагођен за обављање задатака као што су одговарање на питања, вођење вишестепених дијалога, сумирање, издвајање информација и класификација текста. Код је написан у Питхон-у и дистрибуира се под лиценцом Апацхе 2.0. Пројекат укључује готов модел, код за обуку вашег модела, услужне програме за тестирање резултата модела, алате за допуну модела контекстом из екстерног индекса и прилагођавање основног модела за решавање сопствених проблема.

Бот је заснован на основном моделу машинског учења (ГПТ-НеоКСТ-Цхат-Басе-20Б), изграђеном помоћу језичког модела који покрива око 20 милијарди параметара и оптимизован за разговорну комуникацију. За обуку модела коришћени су подаци добијени из колекција пројеката ЛАИОН, Тогетхер и Онтоцорд.аи.

Да би се проширила постојећа база знања, предложен је систем који може да преузме додатне информације из спољних спремишта, АПИ-ја и других извора. На пример, могуће је ажурирати информације користећи податке са Википедије и вести. Доступан је опциони модел модерирања, обучен на 6 милијарди параметара и заснован на ГПТ-ЈТ моделу, да филтрира неприкладна питања или ограничи дискусије на одређене теме.

Одвојено, можемо поменути пројекат ЦхатЛЛаМА, који нуди библиотеку за креирање интелигентних асистената сличних ЦхатГПТ-у. Пројекат се развија имајући у виду могућност рада на сопственој опреми и креирања персонализованих решења дизајнираних да покрију уске области знања (на пример, медицина, право, игре, научна истраживања итд.). ЦхатЛЛаМА код је лиценциран под ГПЛв3.

Пројекат подржава употребу модела заснованих на архитектури ЛЛаМА (Ларге Лангуаге Модел Мета АИ) коју је предложила Мета. Пуни ЛЛаМА модел покрива 65 милијарди параметара, али се за ЦхатЛЛаМА препоручује коришћење опција са 7 и 13 милијарди параметара или ГПТЈ (6 милијарди), ГПТНеоКс (1.3 милијарде), 20БОПТ (13 милијарди), БЛООМ (7.1 милијарди) и Галацтица (6.7 милијарди) модела). У почетку, ЛЛаМА модели су испоручени само истраживачима на посебан захтев, али пошто су торренти коришћени за испоруку података, ентузијасти су припремили скрипту која је омогућавала свакоме да преузме модел.

Извор: опеннет.ру

Додај коментар