Do Micro Ao Macro

Golpes com inteligência artificial ficam cada vez mais difíceis de identificar; veja como se proteger

Clonagem de voz, vídeos manipulados e identidades falsas estão no centro das fraudes digitais no Brasil, e especialista explica o que observar antes de agir

Golpes com inteligência artificial ficam cada vez mais difíceis de identificar; veja como se proteger
Golpes com inteligência artificial ficam cada vez mais difíceis de identificar; veja como se proteger
Golpes com inteligência artificial cresceram 308% entre 2024 e 2025 no Brasil. Especialista explica como clonagem de voz e deepfakes enganam até os mais atentos. Golpes com inteligência artificial
Apoie Siga-nos no

Os golpes com inteligência artificial já não chegam com erros de português ou pedidos absurdos. Chegam com a voz de um familiar, o rosto de uma celebridade ou o tom exato do atendente do seu banco. E é justamente essa familiaridade que os torna perigosos. No Brasil, a produção de conteúdos falsos gerados por inteligência artificial cresceu 308% entre 2024 e 2025, segundo levantamento da Agência Lupa, o que representa uma mudança profunda na forma como as fraudes digitais são construídas.

Em São Paulo, dados da Fundação Seade divulgados em 2026 mostram que 82% dos idosos já foram alvo de tentativas de golpes digitais e 12% efetivamente sofreram fraudes. Entre eles, 68% afirmam não saber como se proteger.

Como a Inteligência Artificial tornou os golpes quase invisíveis

Para o especialista em inteligência artificial Gui Zanoni, o que mudou não foi apenas a sofisticação técnica, mas a lógica do ataque. “A inteligência artificial não replica apenas voz e imagem, mas combina esses elementos com contexto, linguagem e padrões de comportamento previamente mapeados, criando uma narrativa coerente e difícil de contestar em tempo real”, afirma.

O resultado é uma fraude que não precisa mais errar para convencer. O risco se desloca da falha técnica do golpista para a capacidade de verificação do usuário.

Entre os recursos mais usados estão a clonagem de voz, a manipulação de vídeos e a criação de identidades digitais simuladas. Juntos, esses elementos reproduzem não apenas aparência, mas padrões de linguagem, tempo de resposta e contexto de interação, o que leva o usuário a confiar antes de questionar.

O caso Gisele Bündchen e o uso de celebridades

Um dos formatos mais recorrentes envolve o uso indevido da imagem de artistas, influenciadores e figuras públicas em campanhas falsas que circulam em redes sociais e aplicativos de mensagem.

Em 2025, vídeos e áudios gerados por inteligência artificial usaram a imagem da modelo Gisele Bündchen para promover produtos sem qualquer relação com ela. Consumidores realizaram pagamentos por itens que nunca foram entregues.

“Quando essa representação é associada a figuras públicas com alta credibilidade, o usuário tende a reduzir o nível de verificação e aceitar a mensagem como legítima. Esse é exatamente o ponto de conversão explorado pela fraude”, explica Zanoni.

Os sinais que podem indicar manipulação

A identificação de vídeos e áudios manipulados exige atenção a detalhes que nem sempre são perceptíveis. Zanoni lista alguns: desalinhamento entre áudio e movimento labial, padrões artificiais de expressão facial e pequenas falhas na construção do vídeo ou do som.

O problema é que esses sinais não aparecem de forma consistente em todos os casos, o que amplia o desafio para o usuário comum.

Cinco formas de se proteger

Zanoni elaborou orientações práticas para reduzir os riscos em interações digitais:

1. Não validar informações apenas por áudio ou vídeo, mesmo quando envolvem pessoas conhecidas

2. Confirmar solicitações por um segundo canal independente antes de qualquer ação

3. Desconfiar de abordagens que envolvam urgência ou pressão emocional

4. Observar inconsistências visuais e sonoras em conteúdos digitais

5. Evitar compartilhar dados pessoais, códigos ou imagens sem verificação

Para o especialista, a resposta ao avanço das fraudes está na criação de novos hábitos de verificação. “A inteligência artificial redefine o que é percebido como confiável no ambiente digital. A resposta a isso está na criação de novos hábitos de verificação antes de qualquer decisão”, diz Zanoni.

ENTENDA MAIS SOBRE: , , , , , , , ,

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo

Apoie o jornalismo que chama as coisas pelo nome

Muita gente esqueceu o que escreveu, disse ou defendeu. Nós não. O compromisso de CartaCapital com os princípios do bom jornalismo permanece o mesmo.

O combate à desigualdade nos importa. A denúncia das injustiças importa. Importa uma democracia digna do nome. Importa o apego à verdade factual e a honestidade.

Estamos aqui, há mais de 30 anos, porque nos importamos. Como nossos fiéis leitores, CartaCapital segue atenta.

Se o bom jornalismo também importa para você, nos ajude a seguir lutando. Assine a edição semanal de CartaCapital ou contribua com o quanto puder.

Quero apoiar

Leia também

Jornalismo crítico e inteligente. Todos os dias, no seu e-mail

Assine nossa newsletter

Assine nossa newsletter e receba um boletim matinal exclusivo