A plataforma de torneios FACEIT falou sobre os sucessos do sistema de moderação Minerva, desenvolvido com base em inteligência artificial. Em 1,5 meses, a IA baniu mais de 20 mil jogadores.
O sistema foi desenvolvido em conjunto com Jingsaw usando Google Cloud. Minerva registra violações após o término da partida. Ele pune os jogadores por enviar spam, insultar, usar cheats e muito mais. A IA foi treinada durante vários meses usando aprendizado de máquina, após os quais foi lançada na plataforma.
Os desenvolvedores registraram o impacto positivo do Minerva na comunicação entre os jogadores: após seis semanas de trabalho, o número de mensagens tóxicas diminuiu 20% (de 2,2 para 1,82 milhões). Quanto aos utilizadores, o número de jogadores que se permitem escrever mensagens ofensivas diminuiu cerca de 8%.
A FACEIT prometeu desenvolver e melhorar o trabalho da Minerva no futuro. A empresa planeja melhorá-lo para reconhecer insultos em tempo real.
No início de setembro, a Kaspersky Lab
Fonte: 3dnews.ru