Publicouse OpenChatKit, un conxunto de ferramentas para crear chatbots

Preséntase o kit de ferramentas de código aberto OpenChatKit, destinado a simplificar a creación de chatbots de uso especializado e xeral. O sistema está adaptado para realizar tarefas como responder preguntas, realizar diálogos en varias etapas, resumir, extraer información e clasificar textos. O código está escrito en Python e distribúese baixo a licenza Apache 2.0. O proxecto inclúe un modelo preparado, código para adestrar o seu modelo, utilidades para probar os resultados do modelo, ferramentas para complementar o modelo con contexto a partir dun índice externo e adaptar o modelo base para resolver os seus propios problemas.

O bot baséase nun modelo básico de aprendizaxe automática (GPT-NeoXT-Chat-Base-20B), construído mediante un modelo de linguaxe que abarca uns 20 millóns de parámetros e optimizado para a comunicación conversacional. Para adestrar o modelo utilizáronse os datos obtidos das coleccións de proxectos LAION, Together e Ontocord.ai.

Para ampliar a base de coñecemento existente, proponse un sistema que poida recuperar información adicional de repositorios externos, API e outras fontes. Por exemplo, é posible actualizar a información utilizando datos da Wikipedia e fontes de noticias. Está dispoñible un modelo de moderación opcional, adestrado en 6 millóns de parámetros e baseado no modelo GPT-JT, para filtrar preguntas inadecuadas ou limitar as discusións a temas específicos.

Por separado, podemos mencionar o proxecto ChatLLaMA, que ofrece unha biblioteca para crear asistentes intelixentes semellantes ao ChatGPT. O proxecto desenvólvese pensando na posibilidade de executar no seu propio equipo e crear solucións personalizadas pensadas para abarcar áreas estreitas de coñecemento (por exemplo, medicina, dereito, xogos, investigación científica, etc.). O código ChatLLaMA ten licenza GPLv3.

O proxecto apoia o uso de modelos baseados na arquitectura LLaMA (Large Language Model Meta AI) proposta por Meta. O modelo LLaMA completo cobre 65 millóns de parámetros, pero para ChatLLaMA recoméndase utilizar opcións con 7 e 13 millóns de parámetros ou o GPTJ (6 millóns), GPTNeoX (1.3 millóns), 20BOPT (13 millóns), BLOOM (7.1 millóns) e Modelos Galactica (6.7 millóns). Inicialmente, os modelos LLaMA ofrecíanse só aos investigadores por petición especial, pero como se usaban torrents para entregar datos, os entusiastas prepararon un script que permitía a calquera descargar o modelo.

Fonte: opennet.ru

Engadir un comentario