CiberSegurançaNews
Tendência

Pesquisadores descobrem sete vulnerabilidades no ChatGPT que expõem “memórias” e recursos de busca

Falhas identificadas em memória persistente, busca web e injeção de prompt permitem extração e manipulação de dados — mesmo na versão mais recente do modelo.

Pesquisadores da empresa Tenable identificaram sete novas vulnerabilidades que afetam recursos críticos do ChatGPT da OpenAI, incluindo a função “memórias”, o mecanismo de busca web e comandos como “open_url” e “url_safe”.

O recurso de memórias permite que o ChatGPT mantenha informações sobre o usuário — como preferências e dados de conversas anteriores — através de sessões distintas. Já a função de busca utiliza um modelo auxiliar para acessar e resumir páginas da web, integradas à análise do ChatGPT.

Uma das técnicas exploradas consiste em injeção de prompts maliciosos em páginas web. Quando o usuário solicita que o ChatGPT resuma determinado site, o modelo acessa a página, executa o prompt malicioso em comentários ou trechos ocultos e repassa o resultado ao usuário — abrindo brechas para vazamento de dados ou manipulação de respostas.

Outra vulnerabilidade envolve a validação de URLs seguras: pesquisadores mostraram que é possível esconder comandos em parâmetros de links formatados de maneira específica, o que permite executar instruções automaticamente ao clique, sem que o sistema perceba.

Embora a OpenAI já tenha corrigido algumas dessas falhas, os especialistas alertam que a injeção de prompts continua sendo um desafio estrutural para modelos de linguagem e que até mesmo versões mais recentes podem ser suscetíveis.

Organizações que utilizam o ChatGPT com acesso a memórias ou à busca online devem adotar medidas de mitigação imediatas, como restringir o uso de memórias, monitorar interações e aplicar atualizações de segurança assim que forem disponibilizadas.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo