Recientemente, el sistema de emparejamiento independiente del FPS recibió una actualización que amplía el campo de detección de jugadores molestos.

La toxicidad es uno de los principales problemas de los juegos en línea. Sin embargo, Counter-Strike: Global Offensive parece tener en la solución definitiva para reducir a los jugadores conflictivos gracias a Minerva.

El sistema emparejamiento independiente de CS:GO está equipado con una inteligencia artificial llamada Minerva. Este programa es capaz de detectar comportamientos tóxicos en el chat del juego y sancionar de manera automática a los problemáticos de la partidas.

Lee también:  Team Vitality campeón de BLAST Premier Fall Final

«Hoy lanzamos una actualización significativa de Minerva, nuestra IA administrativa, que ahora puede detectar y castigar la toxicidad en el chat de voz».

Esto no es novedad, pues ya hay otros títulos que cuentan con sistemas parecidos. Pero, recientemente, Minerva recibió una actualización que le permite expandir su campo de detección al chat de voz. De esta manera, el bot podrá reconocer a aquellos jugadores que utilicen de forma abusiva esta herramienta.

El funcionamiento de esta actualizaciones es muy sencillo. Minerva se encargará es de transcribir los audios para reconocer el comportamiento que tienen los jugadores dentro de las partidas. El programa estará en constante aprendizaje y además analizará el contexto de la conversación. Esto para evitar que se malinterpreten frases y el riesgo se reduzca lo menos posible.

Lee también: Broken Fang, la nueva Operación de CS:GO

Esta nueva actualización también permitirá acabar con el spam en el chat de voz. Será mucho más fácil de detectar y evitará que los jugadores usen está herramienta para molestar a los demás usuarios. De momento, el programa cuenta con un equipo de personas a cargo de la supervisión de sonido o micrófonos del juego.

Hasta ahora, Minerva ha demostrado ser una herramienta altamente efectiva en cuanto a su labor en CS:GO. La aplicación ha castigado más de 100 mil jugadores y entregó casi dos millones de reportes. Según Facelt (empresa detrás del programa), la toxicidad en el juego redujo un 21% y los mensajes más fuertes en un 62%.

Te puede interesar