A desinformação eleitoral não é novidade no Brasil. Desde pelo menos 2018, campanhas digitais, disparos em massa, boatos em aplicativos de mensagem e disputas judiciais sobre conteúdos falsos fazem parte do cenário político. O que muda, com a proximidade das eleições deste ano, é a incorporação acelerada da inteligência artificial (IA), sobretudo a generativa, tanto na produção de textos, imagens, vídeos e áudios quanto no próprio consumo e checagem de informações.
Ferramentas de IA já estão embutidas em plataformas centrais para o debate público, como buscadores, a exemplo do Google, redes sociais e aplicativos de mensagem. Pesquisa recente do InternetLab mostra que metade dos usuários de WhatsApp afirma já ter utilizado algum recurso de inteligência artificial no aplicativo poucos meses após o lançamento da Meta IA no Brasil, um indício da velocidade com que essas tecnologias se disseminam.
No mesmo levantamento, parte significativa dos entrevistados disse acreditar já ter recebido conteúdos políticos ou eleitorais produzidos com IA sem saber. Outra parcela admite não conseguir identificar quando imagens, vídeos ou áudios são sintéticos. Segundo relatório do InternetLab, 99,1% dos respondentes que utilizam aplicativos de mensagem no Brasil afirmam usar o WhatsApp, o que faz com que a circulação de conteúdos políticos nesses ambientes seja ampla — e por vezes pouco transparente.
Desde 2022, o Tribunal Superior Eleitoral (TSE) vem ampliando seus mecanismos de enfrentamento à desinformação, com parcerias com plataformas digitais e resoluções que permitem a remoção célere de conteúdos comprovadamente falsos. Em 2023 e 2024, o tribunal passou a tratar de forma mais explícita os impactos da IA generativa, incluindo exigências de rotulagem de conteúdos sintéticos e a responsabilização de candidatos e partidos pelo uso de deepfakes.
Para 2026, ministros do TSE já sinalizam a intenção de atualizar novamente as regras eleitorais, ainda que especialistas apontem limitações práticas para fiscalizar campanhas informais e redes de apoio não oficiais.
Para entender como essa combinação entre desinformação e inteligência artificial pode impactar as eleições de 2026, a Agência Pública conversou com Heloisa Massaro, diretora de Pesquisa e Operações do InternetLab. Advogada e mestre em Sociologia do Direito pela Universidade de São Paulo (USP), Massaro coordena estudos sobre desordem informacional, comportamento dos usuários e regulação de plataformas digitais.
Mais do que ampliar o volume de conteúdos enganosos, a chegada da IA generativa às eleições tende, segundo Massaro, a aprofundar um ambiente já marcado por cansaço informacional e desconfiança.
