Mimesis inaugura nova fase de imersão nos games com IA de voz

Novo jogo utiliza a voz do usuário em tempo real, mas mecânica pode esclarecer dúvidas sobre segurança e de transparência no tratamento de dados 

O jogo ‘Mimesis’ chegou ao mercado como um dos primeiros jogos a usar inteligência artificial para imitar, em tempo real, a voz dos jogadores. A mecânica promete imersão inédita, mas levanta questões fundamentais: como essa voz é coletada e tratada? Quais dados são armazenados? Existem riscos existem ao permitir que uma IA gere uma versão sintética da fala do usuário? 

Segundo Marcelo Mattoso, sócio do Barcellos Tucunduva Advogados (BTLAW) e especialista em Games, eSports e tecnologia, a voz — ainda que usada apenas para a dinâmica do game — é tratada como dado pessoal e, quando usada para identificar alguém ou gerar um padrão de reconhecimento, passa a ser dado biométrico sensível, protegido de forma reforçada pela LGPD. “O estúdio funciona como controlador de dados e precisa informar finalidade, tempo de retenção, eventuais compartilhamentos e direitos do jogador, mesmo quando o áudio é apagado após a partida”, explica. 

Para o especialista, a primeira medida de proteção é ler os documentos dos jogos que podem utilizar mecânicas similares. “O usuário deve verificar se a voz será usada apenas para o funcionamento da partida ou também para pesquisa, analytics, marketing ou treino de IA”. Além disso, é importante avaliar qual base legal é utilizada, se o fornecimento da voz é opcional ou obrigatório, por quanto tempo os dados serão guardados, se há transferência internacional e quais parceiros podem receber o material. 

Segundo ele, o período de retenção dos áudios, e de eventuais modelos derivados, é determinante para medir o nível de exposição do usuário. Formas de armazenamento, como criptografia e controle de acesso, também influenciam diretamente a gravidade de um eventual vazamento. 

O jogador deve observar também os direitos previstos pela LGPD: acesso aos dados, exclusão, correção, revogação de consentimento e possibilidade de contestar usos indevidos. “A presença de um canal ativo de contato com o encarregado de dados (DPO) é outro sinal relevante de transparência”, reforça Marcelo. 

Como reduzir riscos? 

Existem cuidados práticos que ajudam a diminuir a vulnerabilidade: evitar compartilhar informações pessoais durante a jogatina, usar apelidos em vez do nome completo, revisar permissões de microfone para limitar seu uso apenas ao momento de jogo e desligar o chat de voz quando não for necessário. Softwares que modulam a voz oferecem camada adicional de proteção. 

Marcelo reitera que para crianças e adolescentes, a orientação é reforçada: supervisão constante e atenção às configurações de privacidade. “Exercitar direitos previstos na LGPD, como solicitar informações sobre o tratamento ou pedir a exclusão do material, também é uma forma concreta de diminuir riscos no longo prazo”. 

Brasil já oferece instrumentos de proteção 

Segundo Mattoso a LGPD se aplica integralmente a esse tipo de tecnologia, classificando a biometria como dado sensível e estabelecendo princípios de necessidade, transparência e segurança. “Além dela, direitos da personalidade e regras do Código Civil protegem a voz contra usos abusivos; o Código de Defesa do Consumidor exige informação clara e proíbe cláusulas abusivas; e o Marco Civil da Internet, somado à atuação da Autoridade Nacional de Proteção de Dados (ANPD), oferece mecanismos administrativos e judiciais para reagir a violações”, explica o especialista. 

Leave feedback about this

  • Rating

This site uses Akismet to reduce spam. Learn how your comment data is processed.

WP Twitter Auto Publish Powered By : XYZScripts.com