O Desafio Tecnológico nas Urnas: Como o TSE e o Direito Eleitoral Enfrentam o Uso da Inteligência Artificial nas Eleições de 2026
Por Fernanda Nogueira

A incorporação acelerada de tecnologias de Inteligência Artificial no cotidiano da comunicação política inaugura um novo capítulo para o Direito Eleitoral brasileiro. Nas eleições de 4 de outubro de 2026, quando os brasileiros voltarão às urnas para escolher presidente da República, governadores, senadores e deputados, o desafio já não se restringe à disputa de narrativas entre candidatos e partidos. Ele passa também pela capacidade institucional de preservar a integridade do processo democrático diante de ferramentas tecnológicas capazes de produzir, em escala e com alto grau de verossimilhança, conteúdos manipulados que podem interferir na formação da vontade do eleitor.
Ciente dessa nova realidade, o Tribunal Superior Eleitoral (TSE) aprovou um conjunto de resoluções destinadas a disciplinar o uso de Inteligência Artificial nas campanhas eleitorais, estabelecendo parâmetros inéditos para o enfrentamento da desinformação sintética. Do ponto de vista jurídico-regulatório, trata-se de uma tentativa deliberada de equilibrar dois valores constitucionais igualmente relevantes: de um lado, a liberdade de expressão e de comunicação política; de outro, a proteção da lisura do processo eleitoral e da autonomia do eleitor na formação do seu voto.
Entre as principais inovações normativas está a atualização da resolução sobre propaganda eleitoral (Instrução nº 0600751-65.2019.6.00.0000), relatada pelo ministro Nunes Marques, que passou a estabelecer regras específicas para conteúdos produzidos ou alterados por Inteligência Artificial. A lógica adotada pelo TSE parte de uma premissa institucional clara: evitar tanto a omissão regulatória diante dos riscos tecnológicos quanto o excesso regulatório capaz de sufocar o debate político legítimo.
Nesse contexto, uma das medidas centrais foi a exigência de rotulagem obrigatória de conteúdos sintéticos. Materiais gerados ou modificados por IA — incluindo manipulações de imagem, voz ou contexto narrativo — somente poderão circular se estiverem claramente identificados como tal. A ausência de rotulagem passa a caracterizar irregularidade eleitoral. Mais do que isso, o TSE instituiu uma salvaguarda temporal relevante para o período mais sensível da disputa eleitoral: fica proibida a circulação de novos conteúdos sintéticos que alterem a imagem ou a voz de candidatos nas 72 horas que antecedem o pleito e nas 24 horas posteriores à votação, ainda que esses conteúdos estejam devidamente rotulados. A medida busca evitar o chamado “efeito surpresa” digital, no qual conteúdos manipulados são disseminados às vésperas da votação sem tempo hábil para verificação ou contraposição.
Outro ponto de grande relevância regulatória diz respeito à responsabilização das plataformas digitais. As novas resoluções ampliam o dever de diligência dos provedores de aplicação de internet ao prever a possibilidade de responsabilização solidária quando essas plataformas deixam de remover, de forma célere, conteúdos sintéticos irregulares ou que descumpram ordens judiciais previamente emitidas. Trata-se de uma evolução importante na tentativa de ajustar a arquitetura jurídica do ambiente digital às dinâmicas de propagação da desinformação contemporânea.
Além disso, o TSE avançou em uma dimensão particularmente sensível do debate tecnológico: a interferência algorítmica no processo de decisão do eleitor. As novas regras vedam que sistemas de Inteligência Artificial ofereçam recomendações automatizadas de candidaturas ou orientações de voto aos usuários, buscando evitar que mecanismos opacos de processamento de dados passem a influenciar, de maneira silenciosa e assimétrica, escolhas que deveriam permanecer no campo da autonomia individual.
Os riscos que justificam essa intervenção regulatória são concretos. A Inteligência Artificial permite a criação de conteúdos altamente realistas — os chamados deepfakes — capazes de simular declarações, comportamentos ou situações que jamais ocorreram. Em um ecossistema informacional marcado pela velocidade de circulação de conteúdos, tais materiais podem atingir milhões de pessoas antes mesmo que mecanismos de verificação consigam identificar a manipulação. A assimetria entre a velocidade da desinformação e o tempo necessário para a checagem dos fatos representa hoje um dos maiores desafios para a integridade dos processos democráticos.
A utilização dessas tecnologias também abre espaço para práticas particularmente graves de violência política e desinformação direcionada. O TSE dedicou atenção específica a esse ponto ao proibir expressamente a circulação de conteúdos sintéticos que envolvam manipulações de nudez ou outras formas de exposição degradante, frequentemente utilizadas como instrumento de violência política de gênero contra candidatas mulheres.
No plano sancionatório, as resoluções aprovadas também deixam claro que o uso indevido de conteúdos sintéticos gerados por Inteligência Artificial passa a ser enquadrado explicitamente como ilícito eleitoral, conforme previsto na Instrução nº 0600043-39.2024.6.00.0000. Caso se comprove que um candidato se beneficiou da disseminação de conteúdos manipulados com o objetivo de influenciar o eleitorado, ele poderá sofrer consequências jurídicas severas.
Entre os instrumentos previstos pela Constituição Federal para enfrentar esse tipo de fraude está a Ação de Impugnação de Mandato Eletivo (AIME), prevista no artigo 14 da Constituição. Trata-se de uma ação constitucional destinada a preservar a legitimidade do processo eleitoral, permitindo que mandatos obtidos mediante fraude, corrupção ou abuso de poder econômico sejam judicialmente questionados. A AIME pode ser proposta até quinze dias após a diplomação do candidato eleito e tramita em segredo de justiça, embora seu julgamento seja público. Caso a Justiça Eleitoral reconheça a existência de fraude digital capaz de comprometer a lisura da eleição, o candidato poderá sofrer a cassação do registro de candidatura, a cassação do diploma e ainda ser declarado inelegível.
Apesar da centralidade das medidas repressivas, a estratégia institucional adotada pelo Brasil não se limita à punição. A construção desse novo arcabouço regulatório contou com um processo participativo expressivo: o TSE recebeu mais de 1.600 contribuições durante as audiências públicas que precederam a aprovação das resoluções. Esse diálogo com a sociedade civil, especialistas, plataformas tecnológicas e representantes da academia evidencia a tentativa de construir respostas regulatórias que sejam, ao mesmo tempo, juridicamente consistentes e socialmente legitimadas.
Paralelamente, a Justiça Eleitoral também tem investido em iniciativas de caráter preventivo e educativo. Campanhas como a websérie “V de Verdade” procuram ampliar a literacia digital da população, incentivando comportamentos simples — como verificar a fonte das informações, desconfiar de conteúdos com forte apelo emocional e buscar canais oficiais para confirmação de notícias — como forma de reduzir a vulnerabilidade coletiva à desinformação.
O cenário que se desenha para as eleições de 2026 revela, portanto, um esforço institucional relevante para adaptar o Direito Eleitoral à complexidade da era digital. Ao estabelecer limites claros para o uso de Inteligência Artificial nas campanhas, exigir transparência na circulação de conteúdos sintéticos, responsabilizar plataformas digitais e prever consequências jurídicas severas para fraudes tecnológicas, o ordenamento jurídico brasileiro busca preservar um valor que permanece central em qualquer democracia: a soberania do voto. Em última instância, trata-se de garantir que, mesmo em um ambiente profundamente transformado pela tecnologia, o resultado das urnas continue refletindo a vontade livre e consciente dos cidadãos.



