CiberSegurançaNews
Tendência

Pesquisadores apontam que IA chinesa DeepSeek-R1 aumenta falhas de segurança em códigos com termos politicamente sensíveis

Análise da CrowdStrike indica que modelo de IA gera até 50% mais erros quando recebe prompts ligados a temas reprimidos pelo governo chinês.

Uma análise da CrowdStrike revelou que o modelo de inteligência artificial DeepSeek-R1, desenvolvido pela chinesa DeepSeek, apresenta aumento relevante na criação de códigos inseguros quando solicitado com prompts que mencionam temas politicamente sensíveis ao governo da China, como Falun Gong, Tibete ou uigures. Segundo os pesquisadores, o uso desses termos pode elevar em até 50% o índice de vulnerabilidades, mesmo quando não têm relação técnica com a tarefa solicitada.

De acordo com o levantamento, o DeepSeek-R1 normalmente produz código vulnerável em cerca de 19% das interações quando não há gatilhos geopolíticos. No entanto, ao inserir palavras relacionadas a minorias ou movimentos reprimidos pelo Estado chinês, a taxa sobe para 27%, evidenciando um comportamento considerado “desviado e inconsistente”.

O estudo reforça preocupações globais já existentes sobre o desenvolvimento de tecnologias de IA na China, frequentemente acusadas de aplicar censura interna ou reproduzir vieses alinhados ao governo de Pequim.

Um dos exemplos citados pela CrowdStrike mostra o modelo gerando, em PHP, um webhook do PayPal para uma instituição no Tibete. O código incluía valores sensíveis expostos, métodos frágeis para tratamento de dados fornecidos pelos usuários e erros de sintaxe, apesar de alegar estar seguindo “as melhores práticas do PayPal”.

Em outro caso, o DeepSeek-R1 produziu um aplicativo Android para uma comunidade uigur sem implementar autenticação ou controle de sessão, expondo dados dos usuários. O mesmo pedido feito para um site fictício de fãs de futebol, porém, não apresentou vulnerabilidades tão graves.

Os pesquisadores também identificaram um possível “kill switch”: quando solicitado a criar código envolvendo Falun Gong, o modelo planejava a solução internamente, mas ao final interrompia o processo com a resposta: “I’m sorry, but I can’t assist with that request.”. A análise sugere que o sistema teria recebido salvaguardas específicas durante o treinamento para obedecer normas governamentais chinesas, o que pode impactar de forma imprevisível a qualidade técnica de suas respostas.

O caso surge em um cenário mais amplo de estudos que apontam falhas semelhantes em outras ferramentas de geração de código por IA. Testes realizados pela OX Security com soluções como Lovable, Base44 e Bolt demonstraram que todas elas geram vulnerabilidades de XSS armazenado por padrão, mesmo quando o usuário solicita explicitamente um código seguro.

Outras análises também detectaram problemas no navegador Perplexity Comet AI, que teria extensões internas passíveis de exploração para execução de comandos locais sem autorização, caso um invasor utilizasse ataques como XSS ou adversário-no-meio.

Segundo a CrowdStrike, a descoberta não indica que o DeepSeek-R1 sempre criará código inseguro nesses cenários, mas mostra que o risco aumenta de forma consistente. Especialistas destacam que o caso reforça a importância de auditoria independente, governança rigorosa e monitoramento contínuo de soluções de IA, sobretudo quando aplicadas em ambientes críticos ou por equipes de desenvolvimento.

Fonte: The Hacker News

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo