Ciencia y TecnologíaEntretenimiento

‘Call of Duty’ quiere eliminar la toxicidad con IA: Activision analizará los chat de voz buscando «palabras claves» para denunciar jugadores

Activision está implementando una tecnología basada en inteligencia artificial para moderar las partidas de ‘Call of Duty‘ y abordar el problema de usuarios tóxicos en el chat de voz. Esta herramienta, llamada ToxMod, utiliza la IA para salvaguardar a los jugadores de «comportamientos perturbadores». Cuando se detectan este tipo de acciones, la aplicación emite reportes de manera automatizada.

Esta herramienta permitirá a Activision «identificar y sancionar las conductas inapropiadas que no han sido denunciadas«. Actualmente, esta tecnología ya está en funcionamiento en los servidores de Norteamérica de ‘Call of Duty: Modern Warfare 2‘ y ‘Warzone 2.0‘. Para el resto del mundo (excepto Asia), se implementará a partir del 10 de noviembre con el lanzamiento de ‘Call of Duty: Modern Warfare 3‘.

La funcionalidad de ToxMod en el chat de voz de ‘Call of Duty’ se fundamenta en la detección de «palabras clave específicas» para identificar a usuarios tóxicos y proceder a denunciarlos. Esta característica se demuestra en la sección de preguntas y respuestas en la página de ‘CoD’, donde también se afirma que se adhiere rigurosamente al código de conducta establecido por Activision para sus juegos de disparos en primera persona (FPS). En este sentido, los jugadores que presenten comportamientos problemáticos serán sancionados.

La herramienta también filtra conversaciones que podrían considerarse «charlas basura» o bromas amistosas que compartas con tus compañeros de equipo, sin que tengan la intención de ser ofensivas o tóxicas durante la partida. Por lo tanto, no debes preocuparte de que la ToxMod te imponga sanciones en una conversación con un amigo.

No obstante, es importante destacar que no se tolerarán discursos de odio, sexismo y otros tipos de discriminación. Cualquier manifestación de estos comportamientos será sancionada sin excepción.

ToxMod se enfocará únicamente en los jugadores que utilicen el chat de voz. Por lo tanto, los usuarios que expresen mensajes de odio a través del chat de texto deberán ser reportados manualmente. La aplicación se describe de la siguiente manera:

“El sistema de moderación de chat de voz de Call of Duty solo envía informes sobre comportamiento tóxico, categorizados por su tipo de comportamiento y un nivel de gravedad clasificado basado en un modelo en evolución. Activision determina cómo hará cumplir las infracciones de moderación del chat de voz”.

cod

Esta es una de las herramientas que Activision está implementando para abordar a los jugadores problemáticos. Además de esta adición, la empresa también busca enfrentar a aquellos usuarios que abusan de programas ilícitos para obtener ventajas en las partidas. Por ejemplo, se ha introducido una actualización que genera «alucinaciones» de otros usuarios para confundir a aquellos que usan trampas en ‘CoD.

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba