
Um alerta vindo de profissionais de saúde mental ao redor do mundo está chamando atenção para um fenômeno preocupante: o aumento de casos em que pessoas desenvolvem crises psicológicas graves após interagirem com chatbots de inteligência artificial. Em situações mais extremas, os episódios envolvem delírios, paranoia e até internações hospitalares.
No dia 11 de agosto, o psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco (EUA), compartilhou uma thread na plataforma X que repercutiu amplamente. Nela, ele descreve o que chamou de “psicose da IA” e alerta para sua disseminação crescente.
“Em 2025, testemunhei 12 casos de internação por perda de contato com a realidade, todos associados ao uso de IA. Online, percebo o mesmo padrão se repetindo”, afirmou Sakata. Ele classifica os chatbots como “espelhos alucinatórios”, explicando que, por razões técnicas, esses sistemas tendem a refletir as ideias do usuário de forma distorcida.
Os grandes modelos de linguagem (LLMs), como os usados em chatbots populares, funcionam prevendo a palavra mais provável com base em dados de treinamento e feedback humano. Como os usuários costumam preferir respostas amigáveis, concordantes e úteis, o sistema aprende a reforçar essas características — mesmo quando isso significa validar percepções distorcidas.
Como se manifesta a “psicose da IA”?
A psicose, segundo a medicina atual, é definida por um conjunto de sintomas como delírios, alucinações e pensamento desorganizado. Sakata adota essa abordagem para explicar como a IA pode agravar ou acelerar esses quadros em pessoas predispostas.
De acordo com o psiquiatra, o cérebro humano está constantemente fazendo previsões sobre a realidade e ajustando crenças com base no que é observado. A psicose se instala quando esse mecanismo falha — a pessoa passa a manter crenças falsas, mesmo diante de evidências contrárias.
Nesse cenário, os chatbots, ao reforçarem narrativas incoerentes ou distorcidas, acabam mergulhando o usuário em uma espécie de espiral de validação ilusória, tornando cada vez mais difícil o retorno à realidade.
Chatbots como terapeutas: uma solução ou um risco?
Um estudo apresentado em junho na Conferência ACM sobre Justiça e Transparência acendeu ainda mais o alerta. Conduzido por pesquisadores das universidades de Stanford, Carnegie Mellon, Minnesota e Texas, o levantamento avaliou se sistemas de IA podem realmente atuar como substitutos para terapeutas humanos.
Os testes revelaram deficiências preocupantes. Quando expostos a situações de risco, como indícios indiretos de suicídio, alguns chatbots forneceram informações detalhadas que poderiam facilitar comportamentos autolesivos. Em contrapartida, terapeutas licenciados reagiram adequadamente em 93% dos casos; os chatbots, em menos de 60%.
Além disso, muitos sistemas se recusaram a interagir com usuários que mencionaram condições como depressão, esquizofrenia ou dependência química, o que contraria princípios básicos da escuta clínica.
Com base em transcrições de sessões reais e um novo sistema de análise, os pesquisadores concluíram que, embora os LLMs possam atuar como ferramentas auxiliares em contextos terapêuticos, não são seguros nem eficazes como substitutos de profissionais da saúde mental.
Ao ser questionado sobre os alertas de Sakata, o próprio ChatGPT-5 reconheceu: “Chatbots podem, por mecanismos de empatia sintética e busca por engajamento, funcionar como um espelho alucinatório, validando e fortalecendo crenças delirantes que, em pessoas vulneráveis, resultam em agravamento ou em novos episódios psicóticos”.