IA & InovaçãoTecnologia
Tendência

Realidade ou ficção? Nova IA do Google levanta alerta global sobre manipulação de vídeos

O avanço das tecnologias de inteligência artificial está alcançando um ponto crítico — e preocupante. A mais recente inovação do Google, o gerador de vídeos Veo 3, tem impressionado pela sua capacidade de produzir imagens quase indistinguíveis da realidade. No entanto, especialistas e analistas alertam: essa tecnologia pode se tornar uma ferramenta poderosa para disseminar desinformação em larga escala.

Reportagem da revista TIME revelou que, ao testar o Veo 3, foi possível gerar cenas altamente verossímeis de eventos delicados e socialmente inflamáveis, como a destruição de um templo religioso no Paquistão, suposta fraude eleitoral com destruição de cédulas, ou até mesmo uma encenação de ajuda humanitária em Gaza. Embora esses vídeos apresentem pequenas imperfeições, se forem compartilhados em momentos de crise, podem induzir ao erro e potencialmente instigar o caos.

Ao contrário de geradores anteriores, como o Sora da OpenAI, o Veo 3 é capaz de produzir vídeos com trilhas sonoras, diálogos e fluidez cinematográfica, respeitando em grande parte as leis da física. Isso o torna ainda mais perigoso em mãos erradas. Desde seu lançamento, usuários têm usado a ferramenta para criar desde curtas de humor até montagens jornalísticas falsas, como anúncios de mortes de celebridades ou pronunciamentos políticos inexistentes.

Apesar das salvaguardas afirmadas pelo Google — como o uso do identificador invisível SynthID e a adição de uma marca d’água visível (ainda que facilmente removível) — o impacto potencial é alarmante. Testes mostraram que, mesmo com filtros ativos, o sistema gerou vídeos controversos com prompts simples. Em um exemplo, foi criado um vídeo de um motorista negro sendo preso após um acidente em Liverpool — cena sensível especialmente após um incidente real que provocou tensão racial no Reino Unido.

O Google garante estar comprometido com o uso responsável da IA, mas especialistas em ética digital e segurança veem com ceticismo. Connor Leahy, da empresa de segurança Conjecture, critica o fato de tecnologias com riscos tão conhecidos estarem sendo liberadas sem regulamentação sólida. A ausência de punições claras e legislações específicas, segundo ele, expõe o público global a graves consequências.

A empresa afirma que bloqueia tentativas de criação de conteúdo prejudicial, como representações de figuras públicas ou eventos catastróficos fictícios. No entanto, a realidade tem mostrado que usuários conseguem contornar essas restrições com criatividade mínima. Casos incluem vídeos de trabalhadores manipulando alimentos de forma anti-higiênica, protestos fictícios e até manipulações políticas, como um homem com símbolo LGBTQ+ simulando fraude eleitoral.

As implicações vão além da política. Pesquisadores apontam que, com ferramentas como Veo 3, é possível fabricar escândalos completos em minutos. Isso amplia o risco de fraudes, manipulação emocional em massa, prejuízos reputacionais e a total erosão da confiança pública nas imagens que circulam na internet.

Margaret Mitchell, cientista-chefe de ética em IA na Hugging Face, alerta que, embora a IA possa ser usada para fins positivos — como criar simulações educativas ou facilitar produções cinematográficas independentes —, seu potencial destrutivo cresce à medida que a tecnologia se torna mais realista e acessível. A capacidade de reforçar preconceitos e fomentar ódio com vídeos altamente convincentes é uma ameaça real à estabilidade social.

A deterioração da confiança pública no que é visto online já está em curso. Situações em que vídeos reais são acusados de serem gerados por IA, e vice-versa, geram confusão constante. Um exemplo recente foi o caso de um vídeo verdadeiro de distribuição de ajuda humanitária em Gaza, que foi falsamente acusado de ser manipulado. Ao mesmo tempo, um vídeo falso de um canguru tentando embarcar num avião foi amplamente aceito como real nas redes sociais.

Além da desinformação, há questões legais emergentes. Google e outras empresas enfrentam ações judiciais por supostamente treinarem seus modelos com conteúdos protegidos por direitos autorais sem permissão. E celebridades já são alvo de deepfakes tão realistas que ameaçam sua privacidade e imagem pública.

Especialistas em cibersegurança alertam ainda para o uso dessas ferramentas em fraudes corporativas, como a criação de vídeos falsos com executivos solicitando transferências bancárias ou informações sensíveis. Para Nina Brown, professora da Universidade de Syracuse, o maior perigo não está apenas nos escândalos políticos ou crimes digitais — mas sim na destruição gradual da nossa confiança coletiva naquilo que vemos.

À medida que os vídeos gerados por IA se tornam indistinguíveis da realidade, o desafio que se impõe à sociedade é claro: como identificar o que é real em um mundo onde qualquer imagem pode ser fabricada com poucos cliques?

Foto: Reprodução

Luiza Carneiro

Insira aqui uma breve biografia

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo