Norton alerta sobre os riscos do uso indevido de IA para manipular imagens online

A crescente sofisticação das imagens geradas por IA impõe novos desafios à segurança digital

O rápido avanço da inteligência artificial (IA) tornou mais fácil a criação de imagens com alto nível de realismo, incluindo imagens falsas ou manipuladas, reduzindo significativamente as barreiras para práticas enganosas no ambiente online. A Norton alerta que, embora o conteúdo gerado por IA não seja, por si só, inerentemente prejudicial, os riscos surgem quando golpistas passam a usar essas capacidades em fraudes e táticas de engenharia social — utilizando imagens para criar senso de urgência, exercer pressão, explorar a confiança ou enganar pessoas em ambientes digitais.

O uso de ferramentas de IA para gerar ou alterar imagens, assim como para criar deepfakes, tem chamado cada vez mais atenção na internet. Embora abra oportunidades empolgantes para a arte e a expressão criativa, o conteúdo gerado por IA também pode ser utilizado de forma indevida em golpes e fraudes em plataformas e redes sociais. A capacidade de criar imagens falsas altamente realistas introduz novos riscos, já que esse tipo de conteúdo pode ser explorado em esquemas enganosos, fraudes ou extorsões, criados para manipular emocionalmente ou pressionar pessoas.

“Com as ferramentas de inteligência artificial disponíveis hoje, é possível fazer com que praticamente qualquer pessoa pareça estar fazendo quase qualquer coisa em questão de segundos, sem a necessidade de conhecimento técnico. Isso muda fundamentalmente a facilidade com que as pessoas podem ser enganadas e manipuladas no ambiente online”, afirma Iskander Sanchez-Rola, diretor de IA e Inovação da Norton. “A IA pode fazer com que as pessoas pareçam estar em lugares onde nunca estiveram, fazendo coisas que nunca fizeram ou sendo retratadas de maneiras comprometedoras ou enganosas. Esse tipo de manipulação é extremamente perigoso e pode gerar consequências sérias no mundo real.”

Quando imagens geradas por IA se tornam perigosas

A inteligência artificial, por si só, não é inerentemente perigosa. No contexto da criação de imagens, há muitos usos legítimos e positivos, que vão do design e da arte à educação e à acessibilidade.

No entanto, os riscos surgem quando a IA se cruza com práticas enganosas. Exemplos de usos perigosos de imagens geradas ou manipuladas por IA incluem:

Perfis românticos ou sociais falsos

Fotos de perfil geradas por IA são usadas em aplicativos de relacionamento ou plataformas sociais para criar identidades falsas convincentes, frequentemente como parte de golpes românticos ou esquemas de manipulação emocional de longo prazo.

Imagens de “prova” fabricadas e usadas em golpes

Imagens que exibem recibos falsos, compras de luxo, acidentes, emergências médicas ou capturas de tela manipuladas, criando cenários que parecem reais, mas não são, e que são usadas para pressionar vítimas a enviar dinheiro rapidamente.

Imagens alteradas usadas para chantagem ou extorsão

Imagens manipuladas criadas para colocar falsamente indivíduos — ou pessoas próximas a eles — em situações comprometedoras ou constrangedoras, sendo então usadas para ameaçar a exposição caso um pagamento não seja realizado.

Personificação de pessoas reais ou figuras de autoridade

Imagens geradas por IA que imitam pessoas reais — como executivos, figuras públicas ou familiares — com o objetivo de obter informações sensíveis, dinheiro ou disseminar informações falsas como parte de ataques de engenharia social.

Imagens falsas de produtos em golpes de e-commerce

Imagens altamente realistas geradas por IA de produtos que não existem ou que não correspondem à realidade, usadas para atrair consumidores para sites fraudulentos de comércio eletrônico ou anúncios enganosos em redes sociais.

Imagens manipuladas criadas para gerar medo ou senso de urgência

Imagens que retratam desastres, prisões, ferimentos ou situações urgentes fabricadas, criadas para provocar reações emocionais e levar as pessoas a agir sem verificação prévia.

O que as pessoas podem fazer para reduzir os riscos

À medida que o uso indevido de imagens geradas ou manipuladas por IA continua a crescer, a Norton recomenda a adoção de medidas práticas para reduzir a exposição no ambiente online:

  • Compartilhe menos conteúdo visual publicamente, especialmente fotos ou vídeos pessoais, pois esse material pode ser reutilizado, manipulado ou retirado de contexto por terceiros sem consentimento.
  • Tenha cautela ao compartilhar imagens em alta resolução, pois elas podem ser reutilizadas ou alteradas com mais facilidade.
  • Monitore sua presença digital realizando buscas periódicas por imagens ou informações pessoais para identificar possíveis usos indevidos.
  • Desconfie de mensagens inesperadas que incluam imagens acompanhadas de pedidos de pagamento, ameaças ou pressão por urgência, mesmo quando o conteúdo parecer real.
  • Verifique a origem do conteúdo antes de reagir, questionando quem criou ou compartilhou a imagem, em que contexto ela surgiu e se uma fonte confiável confirma sua autenticidade.
  • Evite compartilhar ou republicar imagens ou vídeos de terceiros, a menos que tenha certeza de que eles vêm de uma fonte confiável e representam conteúdo autêntico.
  • Evite interagir diretamente com indivíduos que estejam exercendo pressão e busque orientação junto a uma fonte confiável ou às autoridades competentes, de acordo com a legislação local.
  • Conte com ferramentas tecnológicas, incluindo a própria inteligência artificial, para ajudar a identificar possíveis sinais de manipulação, sempre complementando esses recursos com a verificação da fonte, do contexto e da intenção por trás do conteúdo.
  • Compartilhe essas recomendações com pessoas próximas, especialmente crianças e familiares idosos, que podem ser mais vulneráveis a esse tipo de engano.

Em um ambiente digital em que a linha entre o que é real e o que é manipulado pode se tornar cada vez mais tênue, desenvolver um pensamento crítico e adotar hábitos de segurança digital é essencial. A prevenção, a verificação e a educação continuam sendo as ferramentas mais eficazes para enfrentar os riscos emergentes associados ao uso indevido da inteligência artificial.

Leave feedback about this

  • Rating

This site uses Akismet to reduce spam. Learn how your comment data is processed.

WP Twitter Auto Publish Powered By : XYZScripts.com