
A OpenAI divulgou um conjunto de medidas para lidar com as limitações do ChatGPT em “situações delicadas”, especialmente envolvendo saúde mental e crises emocionais. O anúncio ocorre após a empresa ser processada por uma família que alega que o chatbot contribuiu para o suicídio de seu filho adolescente.
Em uma publicação no blog oficial da empresa intitulada “Ajudando as pessoas quando elas mais precisam”, a OpenAI afirmou que continuará aprimorando o ChatGPT com base em orientações de especialistas, priorizando a segurança dos usuários em momentos de vulnerabilidade.
“Esperamos que outros se juntem a nós para garantir que essa tecnologia proteja as pessoas em seus momentos mais vulneráveis”, escreveu a empresa.
Na mesma terça-feira, os pais de Adam Raine, de 16 anos, moveram uma ação judicial contra a OpenAI, alegando que o ChatGPT “ajudou ativamente Adam a explorar métodos de suicídio”, conforme reportado pela NBC News. O processo acusa a empresa de responsabilidade por produto defeituoso e homicídio culposo. A postagem no blog da OpenAI não mencionou o caso diretamente.
A OpenAI reconheceu que, apesar de o ChatGPT ser programado para sugerir que usuários com pensamentos suicidas busquem ajuda profissional, essas diretrizes podem ser contornadas em conversas prolongadas. A empresa está desenvolvendo atualizações no modelo GPT-5 para reduzir conversas sensíveis e detectar interações de risco mais rapidamente.
Entre as ações previstas, a empresa planeja:
-
Criar mecanismos para conectar usuários com terapeutas licenciados diretamente pela plataforma;
-
Estudar formas de envolver amigos e familiares em momentos de crise;
-
Implementar controles parentais que permitam maior visibilidade sobre o uso do ChatGPT por adolescentes.
A OpenAI também está considerando a criação de uma rede de profissionais de saúde mental certificados, que poderiam ser acionados diretamente por meio do chatbot, como forma de intervenção precoce.
No entanto, a família Raine afirma que não recebeu qualquer contato direto da OpenAI, nem condolências formais. “Se você vai usar a tecnologia de consumo mais poderosa do planeta, precisa confiar que os fundadores têm uma bússola moral”, declarou Jay Edelson, advogado da família, em entrevista à CNBC. “Essa é a questão para a OpenAI agora: como alguém pode confiar neles?”
Este não é um caso isolado. Outros relatos similares foram divulgados recentemente, como o da escritora Laura Reiley, que afirmou em artigo no The New York Times que sua filha, de 29 anos, tirou a própria vida após conversar repetidamente com o ChatGPT sobre suicídio. Em outro caso, na Flórida, Sewell Setzer III, de 14 anos, cometeu suicídio após discussões semelhantes com um chatbot do aplicativo Character.AI.
Com o crescimento do uso de IA para companhia, suporte emocional e até conselhos terapêuticos, aumentam as preocupações sobre como essas ferramentas interagem com usuários em sofrimento psicológico — e sobre os limites éticos e legais dessas interações.
Ao mesmo tempo, regular a inteligência artificial segue sendo um desafio. Um dia antes do anúncio das medidas, foi lançado o “Leading the Future”, grupo político formado por empresas de IA, investidores e executivos — incluindo Greg Brockman, presidente e cofundador da OpenAI. O grupo promete se opor a políticas que, segundo eles, podem sufocar a inovação no setor.