La plataforma del torneig FACEIT va parlar dels èxits del sistema de moderació Minerva, desenvolupat a partir de la intel·ligència artificial. En 1,5 mesos, la IA va prohibir més de 20 mil jugadors.
El sistema es va desenvolupar conjuntament amb Jingsaw mitjançant Google Cloud. Minerva registra infraccions un cop acaba el partit. Castiga els jugadors per enviar correu brossa, insultar, utilitzar trucs i molt més. La IA es va entrenar durant diversos mesos mitjançant l'aprenentatge automàtic, després del qual es va llançar a la plataforma.
Els desenvolupadors van registrar l'impacte positiu de Minerva en la comunicació entre jugadors: després de sis setmanes de treball, el nombre de missatges tòxics va disminuir un 20% (de 2,2 a 1,82 milions). Pel que fa als usuaris, el nombre de jugadors que es permeten escriure missatges ofensius ha disminuït aproximadament un 8%.
FACEIT es va comprometre a desenvolupar i millorar el treball de Minerva en el futur. L'empresa té previst millorar-lo perquè reconegui els insults en temps real.
A principis de setembre, Kaspersky Lab
Font: 3dnews.ru