Inteligência artificial em Call of Duty já dá resultados
IA anda aí, cuidado com o que dizes online!
Os recentes esforços da Activision para reduzir a toxicidade na comunidade online de Call of Duty estão a dar os primeiros resultados. Reconhecido pela sua intensa experiência multijogador, a série tem sido alvo de críticas devido a um ambiente tóxico, especialmente no chat de voz. Em resposta, a Activision introduziu uma funcionalidade de moderação por IA em novembro passado, complementada por uma supervisão humana. Esta tecnologia assinala as conversas potencialmente tóxicas no jogo, o que levou a medidas punitivas para mais de 2 milhões de jogadores envolvidos em comunicações de voz perturbadoras.
De acordo com resultados recentes comunicados pela Activision, o sistema de moderação é eficaz. Apesar de apenas 20% dos jogadores denunciarem ativamente conversas tóxicas no jogo, o sistema conseguiu identificar e penalizar os infratores. Em particular, Call of Duty registou uma redução de 8% nos reincidentes de conversação por voz tóxica desde a implementação do sistema. No geral, a franquia sofreu uma redução de 50% nos incidentes de conversas de voz perturbadoras, demonstrando uma melhoria substancial no comportamento da comunidade.
O compromisso da Activision em promover um ambiente de jogo positivo é evidente na sua posição rigorosa contra o assédio e a linguagem ofensiva. A empresa enfatiza uma política de tolerância zero para o bullying ou comentários discriminatórios baseados em vários fatores, incluindo raça, identidade de género, orientação sexual, idade, entre outros.
Com foco na dignidade e no respeito por todos os membros da comunidade, a Activision visa criar um espaço de jogo inclusivo, livre de discursos de ódio e comportamentos prejudiciais. Os progressos efetuados na redução da toxicidade realçam a dedicação da empresa em proporcionar uma experiência acolhedora aos jogadores de Call of Duty.