ToqueTec
Os maiores caçadores de votos na eleição de 2026 não serão Lula, Flavio Bolsonaro nem Caiado
A campanha eleitoral já tem nomes definidos. Lula, Flávio Bolsonaro e Ronaldo Caiado, tudo indica, serão os candidatos mais conhecidos. Mas existem outros que, mesmo sem você saber, estarão presentes tentando ganhar seu voto
A inteligência artificial já está no centro das campanhas eleitorais para, por exemplo, baratear a produção de conteúdo ou turbinar a segmentação de anúncios. Ela também alimenta uma nova geração de golpes políticos digitais, capazes de confundir eleitores, distorcer o debate público e corroer a confiança nas urnas. Clonagem de voz, vídeos deepfake e astroturfing digital são três das ferramentas mais perigosas – desse arsenal.
A clonagem de voz, que usa IA para reproduzir com alta fidelidade o timbre de qualquer pessoa a partir de poucos segundos de áudio, deixou de ser curiosidade tecnológica para virar arma eleitoral. Em janeiro de 2024, democratas de New Hampshire receberam uma ligação automática com a “voz” de Joe Biden desestimulando a ida às urnas nas primárias, numa tentativa explícita de desmobilizar o voto. A mensagem dizia que “é importante preservar seu voto para novembro”, insinuando que participar da votação naquele momento seria um erro estratégico. Depois da repercussão, investigações mostraram que se tratava de um robocall deepfake, criado com ferramenta de clonagem de voz e disparado em massa, o que levou o órgão regulador de telecomunicações dos EUA a propor multas milionárias contra o responsável e a operadora envolvida. O episódio gerou um alerta global: se uma mensagem falsa consegue, sozinha, afastar parte do eleitorado, ela se transforma em candidata oculta. Cria movimentos que interferem na decisão do eleitor. Elege uma mentira.
Leia também:
O deepfake é o passo seguinte dessa mesma lógica. Com à IA generativa, já é possível colocar o rosto ou a voz de qualquer político em cenas que nunca aconteceram. Podem ser declarações polêmicas ou supostos escândalos pessoais. Nas eleições municipais brasileiras de 2024, pré-candidatas em São Paulo tiveram seus rostos inseridos em vídeos pornográficos, numa tentativa clara de intimidação e destruição de reputação às vésperas da disputa. Em Fortaleza, um áudio atribuído a um deputado falava em “derramar dinheiro nas mãos de pastores” em troca de votos, caso que o próprio parlamentar classificou como falso e pediu investigação. Em outros países, como Argentina e Hungria, deepfakes foram usados para simular retirada de candidaturas e declarações de apoio a adversários, alterando o clima da disputa e obrigando campanhas a gastar tempo e recursos apenas para provar que nunca disseram o que o vídeo mostra. Mesmo quando desmentidas, essas peças deixam um rastro de dúvida difícil de apagar. A mentira circula em minutos, o desmentido leva dias.
Menos conhecido do grande público, o astroturfing digital completa esse quadro. A estratégia é fabricar, com ajuda de contas falsas, bots e influenciadores pagos, a impressão de que existe um grande movimento espontâneo em favor (ou contra) alguém. Nada de base real de apoiadores. Cria-se uma turba de perfis que comentam, compartilham e atacam de maneira coordenada. No Brasil, o estudo “Astroturfing como estratégia de pressão política nas convenções partidárias brasileiras”, do desembargador Cláudio Luís Braga Dell’Orto, ex-presidente do TRE-RJ e diretor-geral da Escola da Magistratura do Estado do Rio de Janeiro (EMERJ), publicado em janeiro de 2026 na revista Justiça Eleitoral em Debate do Tribunal Regional Eleitoral do Rio de Janeiro, descreve como pré-candidatos usam astroturfing para pressionar dirigentes partidários em convenções: exibem números inflados de engajamento e apoio digital como prova de viabilidade eleitoral, quando boa parte daquela mobilização é, na prática, criada por IA e automação.
Clonagem de voz, deepfakes e astroturfing sequestram elementos centrais da democracia: a confiança na informação, a autenticidade do debate público e a própria noção de apoio popular. Um áudio sintético pode afastar eleitores de seu candidato, um vídeo falso pode destruir reputações em poucas horas e um exército de perfis artificiais pode calar vozes reais pela mera saturação da conversa. Tribunais eleitorais brasileiros já reagiram, proibindo deepfakes na propaganda, discutindo regras para uso de IA e abrindo investigações em casos emblemáticos. Mas estudos e especialistas alertam que muitas decisões ainda não enxergam plenamente a gravidade desses casos ou a sofisticação das novas técnicas, que ficam cada vez mais baratas e acessíveis.
Às vésperas da eleição de 2026, a advertência é clara: os maiores caçadores de votos talvez não sejam os candidatos em carne e osso, mas os sistemas de IA que falam, se parecem e se comportam como eles. A popularização da Inteligência Artificial deve produzir muitos exemplos a serem desmascarados em um simples olhar. O problema são as ações que beiram à perfeição e se tornam invisíveis, conduzindo as decisões dos eleitores. A disputa não será apenas por propostas e projetos, mas pela própria definição do que é real no espaço público.
2026 já começou
Às vésperas das eleições de 2026, o País volta a encarar um ponto de inflexão: o futuro democrático está novamente em jogo.
A ameaça bolsonarista não foi derrotada, apenas recuou. No Congresso, forças conservadoras seguem ditando o ritmo. Lá fora, o avanço da extrema-direita e os conflitos em Gaza, no Irã e na Ucrânia agravam a instabilidade global.
Se você valoriza o jornalismo crítico, independente e comprometido com a democracia, este é o momento de agir.
Assine ou contribua com o quanto puder.



