20.000 usuarios expulsados en Counter-Strike gracias a la IA por ser "toxicos".
20.000 usuarios fueron expulsados de Counter-Strike: Global Offensive en las últimas semanas. Esto gracias a la introducción de un sistema de inteligencia artificial que detecta comentarios ofensivos en el anÔlisis de los mensajes que emplean en el sistema de chat.
Minerva, es el nombre de dicho sistema, fue creado por FACEIT, un grupo especializado en juegos on line que organizó importantes eventos en torno al juego y que ha colaborado con Google Cloud y otros servicios, como Jigsaw, una incubadora tecnológica de Google.
Minerva tuvo una fase de anÔlisis preliminar durante el mes de agosto, y desde esa fecha hasta la actualidad ha detectado 7 millones de mensajes tóxicos, ha emitido 90.000 advertencias y ha impuesto 20.000 expulsiones a jugadores.
El sistema estÔ centrado inicialmente en las advertencias por a usuarios que abusaban acosando a otros jugadores. También detecta spam. Al reconocer ese tipo de mensajes, valora cómo proceder, pues puede imponer expulsiones o mandar advertencias. Ademas valora si se trata de reincidentes para determinar el tipo de castigo en cada ocasión.
Los resultados son positivos: los mensajes tóxicos se han reducido un 20% en su volumen total, y un 8% de los usuarios que los enviaban han dejado de hacerlo.
Para conseguir estos resultados, se trabajó durante meses para que el sistema Minerva aprendiera a detectar correctamente los mensajes conflictivos y pudiera descartar los falsos positivos.
El objetivo ahora es conseguir que Minerva pueda ir mƔs allƔ del chat para analizar mƔs factores y conseguir un mejor control de los usuarios que se salten las normas.
Comentarios del Post