Colunistas
Tendência

Vazamento silencioso: Como conversas do ChatGPT foram parar no Google

Por Calza Neto

Nos últimos dias, identifiquei um movimento que pode ter passado despercebido para muitos, mas que representa um risco real à privacidade: links de conversas compartilhadas no ChatGPT começaram a aparecer em pesquisas no Google, revelando informações que jamais deveriam estar públicas.

Ao investigar o caso — inicialmente divulgado pelo Tecnoblog e depois confirmado por veículos como Business Insider e TechCrunch — percebi que estávamos diante de um vazamento silencioso, fruto de um recurso que, mesmo não sendo ativado por padrão, acabou expondo milhares de interações.

O que descobri:

O ChatGPT possui a função “Compartilhar”, que gera um link público para qualquer conversa. Durante o processo, há uma opção para permitir que o link seja indexado por mecanismos de busca. Ainda que essa opção não venha marcada por padrão, se o link público for publicado em qualquer página ou rede social aberta, o Google e outros buscadores podem encontrá-lo e indexá-lo.

Foi exatamente isso que aconteceu. Usando buscas específicas como site:chatgpt.com/share [termo], encontrei links com conteúdo de todos os tipos: desde discussões técnicas e estratégicas de empresas até dados pessoais, cargos e informações internas.

Por que isso é perigoso:

Como advogado e especialista em proteção de dados, sei que o impacto de um vazamento não se limita ao momento em que ele ocorre. Mesmo que o link seja apagado, o cache dos buscadores pode manter o conteúdo disponível por dias ou semanas. E, em casos de engenharia social, basta um detalhe para que criminosos consigam montar um dossiê completo sobre uma pessoa ou organização.

Vi conversas que expunham estratégias corporativas, informações sobre clientes e até dados sensíveis que, em contexto empresarial, poderiam ser usados para espionagem ou chantagem.

A resposta da OpenAI:

A OpenAI tratou a indexação como um “experimento” e exigia que o usuário optasse explicitamente por torná-la visível nos buscadores. Com a repercussão, a empresa desativou a funcionalidade e iniciou o processo para remover as páginas já indexadas. No entanto, sabemos que o que vai para a internet pode ser copiado, replicado e armazenado fora do alcance da empresa.

Como eu recomendo se proteger

Diante desse cenário, minha orientação é clara:

Evite usar o recurso de compartilhamento para conversas que contenham qualquer dado sensível.

Revise imediatamente seus links públicos no painel de Shared Links e apague o que não for estritamente necessário.

Prefira compartilhar informações de forma segura — por exemplo, via captura de tela ou cópia de texto em ambiente controlado.

Monitore regularmente a presença do seu nome, marca ou dados na internet, usando buscas direcionadas e alertas automáticos.

A lição que fica:

Este episódio me mostrou, mais uma vez, que a fronteira entre conveniência e segurança é extremamente frágil. Ferramentas como o ChatGPT são poderosas e úteis, mas exigem consciência do usuário e políticas internas bem definidas para uso seguro, especialmente em empresas sujeitas à LGPD.

Em casos de exposição indevida de dados sensíveis, há, sim, possibilidade de caracterização de incidente de segurança, o que obriga a comunicação à Autoridade Nacional de Proteção de Dados (ANPD) e aos titulares. Ignorar isso pode gerar multas, danos reputacionais e até responsabilização judicial.

A tecnologia avança rápido, mas a atenção com a privacidade precisa correr ainda mais rápido.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo