Tecnologia

Como identificar IA em vídeos, áudios e mensagens para evitar cair em golpes

Golpes que usam inteligência artificial se tornaram mais frequentes no Brasil e já atingem a maioria dos usuários de internet. Em 2025, 78% dos consumidores brasileiros afirmaram ter sido vítimas de fraudes viabilizadas por IA e deepfakes, segundo o Índice de Fraude 2025, da Veriff.

O avanço dessas tecnologias tem ampliado o alcance de golpes virtuais e dificultado a identificação de conteúdos falsos. Um levantamento da Sumsub Identity Fraud Report aponta que, em 2025, o Brasil lidera o ranking de ataques cibernéticos e concentra quase 39% de todos os deepfakes detectados na América Latina.

Diante desse cenário, o Jornal da Paraíba ouviu o especialista em inteligência artificial Yuri Malheiros, que explicou como identificar IA em vídeos, áudios e mensagens e quais cuidados ajudam a reduzir o risco de cair em golpes digitais.

Como identificar vídeos falsos criados com inteligência artificial – Golpes com vídeos manipulados por IA têm se tornado mais frequentes e sofisticados. Ainda assim, alguns detalhes continuam sendo sinais de alerta para quem busca entender como identificar IA nesse tipo de conteúdo.

Segundo Yuri, entre os indícios mais comuns estão:

  • imagens levemente borradas no rosto
  • falhas na sincronização entre lábios e fala
  • problemas de iluminação que não condizem com o ambiente
  • presença de acessórios estranhos ou elementos fora de contexto

“Quando prestamos atenção com mais cuidado, em muitos casos encontramos pequenos sinais que nos fazem desconfiar de que aquele conteúdo não é real. Outro ponto fundamental é a procedência do vídeo: qual é a fonte? Quem enviou? Por onde ele chegou até você? Desconfiar e observar quem está compartilhando o vídeo ajuda bastante a identificar se o conteúdo foi gerado por IA ou se é autêntico”, explica.

Como identificar vozes clonadas e chamadas falsas – Além dos vídeos, golpes com clonagem de voz se tornaram comuns em ligações e áudios enviados por aplicativos de mensagens. Saber como identificar IA nesse formato exige atenção ao padrão da fala.

Vozes muito regulares, sem pausas naturais, variações de entonação ou pequenas falhas costumam ser um sinal de alerta. Em alguns casos, a fala soa constante demais ou com ritmo artificial.

Malheiros explica que essa “perfeição” pode denunciar o uso da tecnologia. “A fala humana tem variações. Quando a voz soa regular demais ou robótica, é um sinal de que pode não ser real”, afirma.

Quando há possibilidade de interação, o especialista recomenda fazer perguntas pessoais ou fora de contexto. A tendência é que a IA tenha dificuldade para responder e revele inconsistências.

Golpes com IA mudam conforme a idade da vítima – Mesmo que o senso comum aponte os idosos como mais vulneráveis, os dados mostram um cenário diferente. Uma pesquisa do DataSenado, com quase 22 mil entrevistados, indica que jovens entre 16 e 29 anos representam 27% das vítimas de golpes digitais no Brasil.

Já as pessoas com mais de 60 anos correspondem a 16% dos casos, mesmo sendo um grupo que migrou para o ambiente digital mais recentemente.

“Faz sentido que quem passa mais tempo nas plataformas esteja mais exposto a esse tipo de golpe. Esse dado também mostra que ninguém está imune, mesmo quem passa mais tempo na internet e tem maior familiaridade com tecnologia continua suscetível a cair em golpes”, avalia o especialista.

A tecnologia usada nos golpes com IA costuma ser a mesma, mas a abordagem varia conforme o público. Os criminosos adaptam os temas, os canais e as plataformas de acordo com o perfil da vítima.

Entre os jovens, é comum que golpes apareçam como ofertas de emprego, cursos ou promessas de retorno financeiro rápido. Já para pessoas mais velhas, os temas envolvem empréstimos, problemas bancários ou pedidos urgentes feitos com vozes clonadas de familiares.

Para Yuri, essa adaptação é estratégica. “Os grupos têm padrões de uso diferentes da internet, e os criminosos exploram exatamente esses hábitos”, explica.

Cuidados que precisam virar hábito diante do avanço da IA – A criação de golpes com IA depende do acesso a dados reais. Para clonar uma voz, são necessárias gravações. Para gerar imagens ou vídeos, fotos e vídeos reais servem como base.

Quanto maior o volume de material disponível publicamente, mais convincente tende a ser o golpe. Vídeos reais, por exemplo, aumentam a qualidade das manipulações feitas por IA.

Por isso, o cuidado com o que é publicado em redes sociais é um fator importante para reduzir riscos. Nesse contexto, a verificação da origem do conteúdo ganha ainda mais importância. Saber quem enviou, de onde veio e em que contexto aquele material surgiu ajuda a evitar golpes.

“É fundamental prestar atenção aos detalhes já mencionados, mas, como a tecnologia evolui rapidamente e a qualidade das imitações aumenta cada vez mais, torna-se ainda mais importante verificar a origem do conteúdo. Isso tende a nos proteger mesmo quando a imitação é muito convincente. Precisamos dar cada vez mais importância à fonte e desconfiar de qualquer conteúdo que surge sem contexto claro”, comentou Yuri.

Fonte: JParaíba – Janinne Vivian

Mais popular