O Novo Paradigma Digital: como a Justiça Eleitoral decidiu regular a Inteligência Artificial nas eleições de 2026
Regras do TSE tentam conter deepfakes, manipulação algorítmica e violência digital para proteger a liberdade de escolha do eleitor. Por Calza Neto

O avanço acelerado das tecnologias de inteligência artificial, especialmente aquelas capazes de produzir imagens, vídeos e vozes sintéticas com alto grau de realismo, colocou as democracias diante de um novo desafio. Em um ambiente dominado por redes sociais e pela circulação instantânea de informações, a possibilidade de manipulação digital em larga escala passou a preocupar autoridades eleitorais em todo o mundo.
No Brasil, essa preocupação levou o Tribunal Superior Eleitoral (TSE) a aprovar um conjunto de resoluções específicas para disciplinar o uso da Inteligência Artificial nas Eleições Gerais de 2026. A iniciativa, conduzida pelo ministro relator Kassio Nunes Marques, busca reduzir o impacto de conteúdos sintéticos capazes de influenciar o eleitorado, preservar a integridade do processo democrático e evitar formas de manipulação digital que possam comprometer a liberdade de escolha dos cidadãos.
A nova regulamentação marca um momento relevante na evolução do direito eleitoral brasileiro, ao reconhecer que o debate político contemporâneo já não ocorre apenas no espaço físico ou no horário eleitoral tradicional, mas também — e sobretudo — no ambiente digital.
O “apagão digital” de conteúdos sintéticos antes da votação
Uma das medidas mais rigorosas aprovadas pela Corte foi a criação de uma janela de restrição absoluta para conteúdos gerados por inteligência artificial.
De acordo com a nova regra, fica proibida a publicação, republicação ou impulsionamento de conteúdos sintéticos nas 72 horas que antecedem a votação e nas 24 horas posteriores ao encerramento do pleito.
A vedação alcança qualquer material digital que envolva manipulação da imagem, da voz ou da manifestação de candidatos ou pessoas públicas, ainda que o conteúdo esteja devidamente identificado como gerado por inteligência artificial.
Na prática, o objetivo é impedir que deepfakes ou conteúdos manipulados circulem em grande escala às vésperas da eleição, momento em que a velocidade da desinformação pode superar a capacidade institucional de verificação e resposta.
Para especialistas em governança digital, essa janela de restrição funciona como uma espécie de “quarentena informacional”, reduzindo o risco de manipulações capazes de influenciar o eleitor no momento mais sensível do processo eleitoral.
Uso permitido, mas com transparência obrigatória
Fora do período de restrição eleitoral, o uso de inteligência artificial nas campanhas permanece permitido. Candidatos e partidos poderão utilizar ferramentas de IA para produzir conteúdos audiovisuais, alterar imagens, modificar vozes ou criar peças publicitárias com recursos sintéticos.
Contudo, o TSE estabeleceu uma condição central para preservar a transparência do debate público: todo conteúdo produzido com auxílio de inteligência artificial deverá ser claramente rotulado.
Essa identificação deverá ser explícita, visível e acessível ao eleitor, permitindo que o público compreenda quando está diante de um conteúdo real ou de uma produção digitalmente manipulada.
A lógica da medida não é proibir o uso da tecnologia, mas evitar que a inteligência artificial seja utilizada de forma enganosa ou dissimulada, induzindo o eleitor a acreditar na autenticidade de conteúdos que, na realidade, foram artificialmente produzidos.
A proibição da recomendação algorítmica de candidatos
Outro ponto sensível da regulamentação envolve a chamada interferência algorítmica no voto.
A Justiça Eleitoral decidiu proibir que sistemas de inteligência artificial ou plataformas digitais elaborem rankings ou recomendem candidatos e partidos políticos aos eleitores.
Essa proibição alcança inclusive situações em que o próprio usuário solicite esse tipo de recomendação ao sistema.
A preocupação dos ministros está relacionada ao poder crescente dos algoritmos de recomendação, capazes de influenciar comportamentos por meio de padrões de consumo informacional, microsegmentação de conteúdo e personalização de mensagens políticas.
Em outras palavras, o TSE busca evitar que sistemas automatizados passem a atuar como intermediários invisíveis na formação da decisão eleitoral.
Combate à misoginia digital e violência política online
A regulamentação também avançou no enfrentamento da chamada violência política digital, especialmente contra candidatas mulheres.
O TSE proibiu expressamente a circulação de montagens, manipulações ou deepfakes que associem candidatas a imagens de nudez, pornografia ou conteúdo sexualizado.
Esse tipo de prática tem sido identificado em diversas eleições ao redor do mundo como uma estratégia de deslegitimação política baseada em violência simbólica e misoginia digital.
Ao proibir esse tipo de conteúdo, a Justiça Eleitoral reconhece que a proteção do processo democrático também envolve garantir condições equitativas de participação política, sem ataques baseados em manipulação digital da imagem de candidatas.
Responsabilidade das plataformas digitais
Para que as regras tenham efetividade, o TSE também definiu deveres claros para as empresas responsáveis pelas plataformas digitais.
As redes sociais e provedores de aplicações terão a obrigação de remover conteúdos eleitorais irregulares imediatamente, seja por iniciativa própria, seja mediante ordem judicial.
Além disso, as empresas deverão identificar e excluir perfis falsos, robôs automatizados e redes de desinformação capazes de comprometer a integridade do processo eleitoral.
Caso as plataformas deixem de retirar conteúdos ilegais ou falhem no combate a perfis fraudulentos, poderão ser responsabilizadas judicialmente.
Essa responsabilização reforça a ideia de que a integridade das eleições não depende apenas de candidatos e partidos, mas também da governança das plataformas digitais que estruturam o debate público contemporâneo.
Um primeiro passo diante de um desafio global
As novas resoluções do TSE representam um dos primeiros esforços sistemáticos de regulação eleitoral da inteligência artificial no Brasil. Ao reconhecer os riscos associados aos conteúdos sintéticos, à manipulação algorítmica e à desinformação automatizada, a Justiça Eleitoral busca antecipar problemas que já afetaram processos eleitorais em diversos países.
Ainda assim, especialistas apontam que a regulamentação é apenas o início de um processo mais amplo.
Pesquisadores do NetLab da Universidade Federal do Rio de Janeiro, que estudam o impacto das plataformas digitais no debate público, alertam que o grande desafio será garantir transparência, capacidade técnica de monitoramento e rapidez na remoção de conteúdos irregulares durante o período eleitoral.
Em um cenário em que a inteligência artificial evolui em ritmo acelerado, a proteção da democracia dependerá não apenas de normas jurídicas, mas também da capacidade institucional de fiscalizar, auditar e responsabilizar os atores envolvidos no ecossistema digital.
As eleições de 2026, portanto, poderão representar um verdadeiro laboratório democrático, testando até que ponto a regulação jurídica consegue acompanhar a velocidade da tecnologia.



