Call of Duty prohíbe 350.000 cuentas por comportamiento tóxico y anuncia medidas para el chat de voz

Activision celebra a los "mejores fans del mundo" con un nuevo informe y anuncia 350.000 cuentas prohibidas por comportamiento tóxico en 12 meses. Además, los creadores de CoD dan una idea de cómo están lidiando con la toxicidad en Call of Duty y qué se planea para el futuro.

¿Que esta pasando ahí? Call of Duty ha presentado un informe de cuentas prohibidas por comportamiento tóxico (a través de callofduty.com). En total, los responsables bloquearon alrededor de 350.000 cuentas en cuatro juegos de CoD:

  • en Battle Royale Warzone
  • en Modern Warfare desde 2019
  • en Black Ops Cold War desde 2020
  • en Call of Duty: Mobile

En el informe, el editor de Call of Duty, Activision, también proporciona información sobre por qué prohibieron a los jugadores, cómo mejoraron su comportamiento anti-tóxico y qué mejoras se planean para el futuro. DLPrivateServer te muestra los detalles.

350.000 cuentas prohibidas por nombres racistas o comportamiento tóxico

¿Por qué se prohibió a los jugadores? El informe encontró que las 350.000 cuentas prohibidas fueron prohibidas debido a un apodo racista o un comportamiento tóxico. Para ello, han examinado minuciosamente su propia base de datos de nombres y han comprobado los informes de los jugadores.

En general, varios equipos internos estaban trabajando en Activision:

  • Equipos de anti-toxicidad
  • Equipos de ejecución
  • Equipos tecnológicos

Los equipos trabajan juntos para prohibir comportamientos sospechosos, verificar los informes de los jugadores y desarrollar nuevas medidas para combatir el comportamiento tóxico en Call of Duty.

¿Cómo han mejorado las medidas durante los últimos 12 meses? El enfoque durante los últimos 12 meses ha estado en el chat de texto y los nombres de los jugadores:

  • Introducción de un nuevo filtro en el juego que encuentra nombres de usuario, etiquetas de clan o perfiles de jugadores potencialmente críticos.
  • Implementación de nuevas tecnologías para filtrar el chat de texto potencialmente crítico
  • Estos filtros se introdujeron en 11 idiomas diferentes.

Más recursos en la lucha contra el comportamiento tóxico

¿Cómo debería continuar? Por el momento, Activision quisiera ofrecer más de lo que ya están haciendo contra el comportamiento tóxico:

  • Mejora de la función de informes y más moderación de los informes de los jugadores.
  • Más recursos para apoyar la detección de comportamientos tóxicos y la aplicación de castigos
  • Monitorización adicional y tecnología backend
  • Limpieza de bases de datos para actualizar los sistemas de protección
  • Revisión coherente y justa de las políticas de aplicación.
  • Mejor comunicación con la comunidad.

Pero en el futuro los sistemas deberían ir más allá y ofrecer una mayor protección.

Por lo tanto, debe obtener herramientas con las que pueda protegerse del comportamiento tóxico. El informe no es específico en este punto, pero deja en claro que debes tener un poco de control sobre lo que ves de los jugadores tóxicos durante tu juego.

Estas medidas están destinadas a combinarse con un estricto "enfoque de aplicación". Por lo tanto, pronto se podrían introducir reglas junto con sanciones fijas: cualquiera que se comporte mal y sea atrapado por el sistema puede esperar sanciones.

Y no se trata solo de apodos, informes de jugadores y chat de texto como antes. El chat de voz también debe estar más controlado para detectar y castigar el discurso de odio, el racismo, el sexismo y el acoso.

¿Existe información específica sobre las medidas del chat de voz? El informe deja este tema abierto y no profundiza en él. Una cosa está clara: Activision está buscando una forma de identificar y sancionar el comportamiento tóxico en el chat de voz. No está claro qué tecnología o medidas le gustaría usar a Call of Duty.

Una aplicación como la del competidor de disparos Valorant sería posible. El desarrollador Riot graba el chat de voz y verifica el historial de chat si un jugador informa sobre el partido respectivo.

Más historias sobre Call of Duty:

  • El rapero es insultado racialmente en CoD Cold War: se venga de manera inmediata e impresionante
  • Los jugadores usan un nuevo exploit en la asistencia de puntería de CoD Warzone para matar enemigos a través de las paredes.
  • CoD Warzone: Lousy essay ahora es de nivel superior; es mejor que cambie sus meta configuraciones

Muchos jugadores de Call of Duty han experimentado un comportamiento tóxico en el juego. Si participa con regularidad en los chats de voz abiertos o participa con frecuencia en un partido con jugadores desconocidos, probablemente conozca los problemas. El entorno competitivo a menudo fomenta los sentimientos negativos cuando las cosas no van tan bien, y los jugadores con poco control emocional dejan que sus malos pensamientos fluyan libremente.

Que Activision quiera hacer más contra el comportamiento tóxico en Call of Duty es un desarrollo positivo y los anuncios también suenan prometedores.

¿Qué opinas de las medidas anunciadas? ¿Incluso informa regularmente a los jugadores que se exageran con su comportamiento? ¿O opera más de acuerdo con el lema “vive y deja vivir”? Discuta con nosotros en los comentarios de DLPrivateServer.