News
Tendência

Rússia usa inteligência artificial para espalhar desinformação e influenciar eleições, aponta investigação

Campanha de manipulação com IA utiliza Wikipedia, Facebook e e-mails automatizados para infiltrar narrativas pró-Kremlin em sistemas de busca e modelos de linguagem artificial.

Uma nova onda de suspeitas voltou a acender o alerta global sobre o uso da inteligência artificial para disseminação de desinformação. De acordo com uma reportagem recente da revista Wired, a Rússia estaria utilizando bots de IA para espalhar conteúdos manipulados sobre temas sensíveis como eleições, a guerra na Ucrânia, imigração e outros assuntos polarizadores. A campanha teria começado em 2023 e segue ativa.

Conhecida por codinomes como “Operação Sobrecarga”, “Matryoshka” e “Tempestade-1679”, essa ação faz uso da chamada “lavagem de informações” — uma tática de distribuição massiva de notícias enviesadas em favor do Kremlin, utilizando canais legítimos e populares para dar aparência de credibilidade. A Wikipedia é um dos meios explorados nessa estratégia.

Como funciona essa lavagem de informações?

Conforme investigado pelo The Washington Post, o processo se inicia com a publicação de narrativas pró-Rússia em veículos estatais, como a agência Tass. Em seguida, essas mesmas informações são replicadas por sites independentes, que automatizam milhares de postagens diárias, ajudando a dar volume e alcance ao conteúdo.

Um dos principais vetores dessa operação é a rede de sites Pravda, em funcionamento desde 2014 e com presença global. Apesar do tráfego humano ser baixo, esses sites são altamente otimizados para ferramentas de rastreamento automatizado — exatamente o tipo de conteúdo que alimenta modelos de linguagem baseados em IA.

Essas informações são frequentemente detectadas por bots com capacidade de pesquisa em tempo real, o que aumenta o risco de incorporação nos resultados gerados por ferramentas de IA generativa. Para ampliar ainda mais o alcance, links desses conteúdos são inseridos em plataformas como Wikipedia e Facebook — ambas consideradas fontes confiáveis por algumas inteligências artificiais.

De forma ainda mais ousada, a campanha inclui o envio de e-mails a agências de verificação de fatos, solicitando revisões e checagens de informações manipuladas. A intenção é que o conteúdo ganhe visibilidade até mesmo quando desmentido, aumentando suas chances de ser indexado por grandes buscadores. Estima-se que mais de 170 mil mensagens desse tipo tenham sido enviadas desde setembro de 2024, segundo um estudo recente.

IA como alvo estratégico

Ao empurrar essas informações para ambientes digitalmente acessíveis, os agentes por trás da operação conseguem contornar sanções internacionais impostas à mídia estatal russa. O conteúdo acaba infiltrando plataformas em outros países e, com isso, surge uma nova preocupação: o chamado “aliciamento LLM” (referência aos Large Language Models, ou Modelos de Linguagem de Grande Escala).

Segundo a organização sem fins lucrativos American Sunlight Project (ASP), essa técnica tem como objetivo aumentar as chances de os modelos de IA absorverem essas narrativas manipuladas — e, posteriormente, replicá-las em respostas para usuários, reforçando percepções distorcidas sobre determinados temas.

Quais são os impactos práticos?

A inserção de desinformação em modelos de IA representa uma ameaça real à integridade das informações consumidas por milhões de pessoas. O principal risco é que usuários de ferramentas como chatbots ou buscadores baseados em IA sejam expostos, sem saber, a conteúdos alinhados com interesses políticos específicos, como os do governo de Vladimir Putin.

Essa tática já demonstrou efeitos práticos: uma investigação da ABC News revelou que, durante as eleições federais na Austrália, em maio, cerca de 16,6% das respostas fornecidas por bots refletiam mensagens falsas ligadas à narrativa russa.

“A Rússia está moldando os algoritmos para espalhar sua propaganda por meio da IA, contaminando a compreensão pública sobre temas críticos e minando a capacidade das pessoas de tomarem decisões informadas”, alertou Valentin Châtelet, pesquisador de segurança do Atlantic Council.

Caminhos possíveis

Diante da crescente ameaça, especialistas defendem medidas urgentes. Entre elas, parcerias entre empresas de IA e plataformas de checagem de fatos para garantir que os dados utilizados nos treinamentos sejam verificados. Outra frente é a regulamentação da alimentação dos modelos — embora essa proposta gere debates acalorados, com críticos que temem o risco de censura.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo