IA será utilizada para moderação de chats de voz de Call of Duty

Em jogos como o Call of Duty é comum que os ambientes de chat de voz sejam reconhecidos por serem tóxicos. Atualmente foi comprovado, através de estudos, que o jogo em questão conta com os fãs mais negativos de todo o universo de games, fato que levou a uma briga entre dois jogadores culminando na solicitação de uma equipe da SWAT. 

VEJA MAIS: Processo contra propaganda que recriou Elis Regina com inteligência artificial é arquivado pelo Conar

A partir deste conhecimento a empresa responsável pela criação do jogo, Activision, tem tentado melhorar a situação atual por meio do uso da IA. Para isso, está trabalhando com a instituição Modulate para oferecer “moderação de chat de voz”. 

Com a moderação realizada pela inteligência artificial, nomeada pela empresa de ToxMod, será possível averiguar e moderar falas e atitudes impróprias, como assédio, discursos discriminatórios e ódio. Todos esses discursos podem ser monitorados em tempo real. 

De acordo com a notícia enviada a empresa, a instituição Modulate ressalta que a IA funciona “realizando triagem de bate-papo por voz para identificar ações não condizentes, analisa as nuances da conversa para verificar se há toxicidade e possibilita que os moderadores respondam a cada caso, oferecendo um contexto preciso e relevante. 

LEIA TAMBÉM: Regulação da IA e desafios eleitorais; veja posição de Lira sobre o assunto

A versão beta da inovação foi lançada no dia 30 de agosto. Ele ficará ativo para o jogo “Call of Duty: Warzone” e “Call of Duty: Modern Warfare II”. Um lançamento mundial, que não inclui a Ásia, ocorrerá no dia 10 de novembro com a divulgação de “Call of Duty: Modern Warfare III”.

O CEO da Modulate ainda atestou que a inovação busca ir além da transcrição e consegue analisar emoções e o volume em que os jogadores falam para entender se trata-se de um caso negativo ou uma troca divertida. 

É importante destacar que a IA não será utilizada para ir contra os jogadores por meio dos dados, e sim, para enviar relatórios para os moderadores da Activision. A atuação humana continuará, visto que alguns estudos comprovaram que os sistemas podem apresentar preconceitos quando utilizados para analisar diferentes identidades raciais ou a depender do sotaque dos jogadores.

Fonte: The Verge

Autor(a): Monica Chin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.