IA & Inovação
Tendência

Vídeos ultrarrealistas criados por IA expõem riscos éticos, sociais e políticos da nova era digital

A ascensão vertiginosa de ferramentas de inteligência artificial generativa, como o Sora (da OpenAI) e o recém-lançado Veo 3 (do Google), tem gerado uma transformação profunda na forma como a realidade é percebida online. Um exemplo emblemático dessa nova era foi a viralização de um vídeo fictício de um canguru barrado em um voo, que alcançou milhões de visualizações antes que muitos percebessem se tratar de uma simulação. Apesar da marcação discreta indicando o uso de IA, o episódio expôs a fragilidade das barreiras entre o real e o fabricado no ambiente digital.

Com recursos que simulam expressões humanas, movimentos de câmera e emoções com impressionante fidelidade, essas tecnologias ampliam consideravelmente o risco de desinformação. Fabricar discursos falsos de autoridades, criar eventos inexistentes e distorcer fatos são apenas algumas das possibilidades com potencial devastador para o debate público e para a confiança em fontes legítimas de informação. A capacidade de manipulação atinge desde o jornalismo até o cotidiano dos usuários nas redes sociais, abrindo margem para golpes, extorsões e atentados à reputação.

Embora plataformas como o YouTube relatem que a maioria dos criadores brasileiros já utiliza IA generativa, especialistas alertam para os riscos de sua banalização. A popularização de vídeos sintéticos — aliados à falta de regulamentações específicas — contribui para um ambiente em que o “ver para crer” deixa de ser confiável. Casos de vídeos falsos usados em contextos escolares, corporativos e até judiciais mostram que, mesmo após a desmentida, o dano social e emocional já está consumado.

Frente a esse cenário, cresce a pressão por regulamentações mais robustas. O Projeto de Lei 2.338/23, conhecido como Marco Legal da IA, avança no Congresso Nacional com propostas que incluem regras sobre transparência, uso de dados protegidos por direitos autorais e a obrigação de sinalizar conteúdos gerados por IA. No entanto, a eficácia dessas medidas dependerá da colaboração entre empresas, governo e sociedade civil.

A responsabilidade corporativa também está em foco. Apesar de empresas como o Google e a OpenAI afirmarem que utilizam marcações digitais e diretrizes de uso ético, essas informações muitas vezes não são acessíveis ao público comum. O debate se amplia para questões centrais: como garantir a autenticidade de provas audiovisuais em processos legais? Como preparar a população para interpretar criticamente os conteúdos que consome?

Em um mundo cada vez mais dominado por imagens convincentes, mas fabricadas, a urgência por educação midiática, regulamentação efetiva e responsabilidade tecnológica se impõe como condição essencial para preservar a confiança social e a integridade das democracias.

Foto: Reprodução

Luiza Carneiro

Insira aqui uma breve biografia

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo