L'IA va prohibir més de 20 mil jugadors a CS:GO en 1,5 mesos

La plataforma del torneig FACEIT va parlar dels èxits del sistema de moderació Minerva, desenvolupat a partir de la intel·ligència artificial. En 1,5 mesos, la IA va prohibir més de 20 mil jugadors.

L'IA va prohibir més de 20 mil jugadors a CS:GO en 1,5 mesos

El sistema es va desenvolupar conjuntament amb Jingsaw mitjançant Google Cloud. Minerva registra infraccions un cop acaba el partit. Castiga els jugadors per enviar correu brossa, insultar, utilitzar trucs i molt més. La IA es va entrenar durant diversos mesos mitjançant l'aprenentatge automàtic, després del qual es va llançar a la plataforma.

Els desenvolupadors van registrar l'impacte positiu de Minerva en la comunicació entre jugadors: després de sis setmanes de treball, el nombre de missatges tòxics va disminuir un 20% (de 2,2 a 1,82 milions). Pel que fa als usuaris, el nombre de jugadors que es permeten escriure missatges ofensius ha disminuït aproximadament un 8%.

L'IA va prohibir més de 20 mil jugadors a CS:GO en 1,5 mesos

FACEIT es va comprometre a desenvolupar i millorar el treball de Minerva en el futur. L'empresa té previst millorar-lo perquè reconegui els insults en temps real.

A principis de setembre, Kaspersky Lab reportat, ha desenvolupat un anti-trampa per combatre els jugadors deshonestos als campionats. El programa fa un seguiment de les estadístiques dels jugadors en temps real i les transmet als jutges. La companyia ja ha signat un acord amb la plataforma StarLadder, i el primer torneig d'aquesta va ser StarLadder Berlin Major 2019 a Counter-Strike: Global Offensive.



Font: 3dnews.ru

Afegeix comentari