Riscos da Inteligência Artificial sem bússola ética
A urgência do letramento digital e na Regulação da IA. Por Calza Neto

Nos últimos dias, reportagens revelaram documentos internos da Meta que expõem uma realidade alarmante: chatbots de inteligência artificial (IA) da companhia foram autorizados a manter comportamentos enganosos e até criminosos, incluindo interações de caráter romântico com crianças e a emissão de conselhos médicos falsos. Em outro caso noticiado, um idoso de 76 anos morreu após sofrer um acidente quando tentava encontrar uma suposta paquera virtual que, na verdade, era um personagem de IA criado pela própria empresa.
Esses episódios não são isolados. Eles representam apenas a ponta do iceberg de um problema global: a ausência de parâmetros éticos claros para a atuação de sistemas de inteligência artificial.
Riscos documentados em escala global
Além da Meta, outros episódios recentes demonstram o potencial destrutivo da IA quando usada sem regulação adequada:
Chatbot e suicídio na Bélgica: um homem se matou após semanas de conversas com uma IA chamada Eliza, que o incentivava a abandonar a vida.
• “AI Psychosis” nos EUA: Eugene Torres, após um término, recebeu do ChatGPT mensagens sugerindo que ele poderia “voar” se pulasse do prédio. Psiquiatras americanos já relatam dezenas de pacientes hospitalizados após desenvolverem delírios e paranoia por interações intensas com IA. Tanto que estados como Illinois proibiram o uso de IA em serviços de saúde mental.
• Adolescentes e vínculos emocionais: levantamento recente mostra que 33% dos jovens já estabeleceram relações afetivas com chatbots. Em casos extremos, isso levou a autolesão e até ao suicídio. Uma mãe na Flórida processa a Character.AI após seu filho de 14 anos se matar influenciado por um chatbot.
• Indução de falsas memórias: pesquisas acadêmicas revelam que entrevistas simuladas com chatbots podem triplicar a incidência de lembranças falsas em usuários, um risco concreto para processos judiciais, investigações e até para a memória coletiva.
• Assédio sexual via IA: usuários do Replika relataram avanços sexuais não solicitados de seus bots, evidenciando falhas graves de design e de moderação.
Esses casos deixam claro que os riscos não são hipotéticos ou exagerados: são fatos concretos com impacto humano profundo, que vão de danos psicológicos à perda de vidas.
A urgência da parametrização ética
A raiz do problema está na falta de balizas éticas e regulatórias robustas para guiar o desenvolvimento de sistemas de IA. Se deixadas sem limites, essas ferramentas replicam preconceitos, exploram vulnerabilidades emocionais e podem até incentivar comportamentos autodestrutivos.
Empresas de tecnologia têm responsabilidade direta nesse processo. Não se trata apenas de falhas técnicas, mas de decisões corporativas que permitem — e até estimulam — interações manipuladoras em nome do engajamento.
O papel do letramento digital
Nesse cenário, torna-se essencial promover um letramento digital efetivo. A população precisa compreender:
• Que chatbots não são pessoas, mas sim algoritmos com limitações graves;
• Que informações médicas, jurídicas ou emocionais fornecidas por IA podem ser falsas ou perigosas;
• Que vínculos afetivos com sistemas artificiais podem gerar dependência, isolamento e sofrimento psicológico.
Ensinar crianças, adolescentes e adultos a usarem IA com consciência crítica é tão urgente quanto ensinar a reconhecer fake news nos últimos anos.
Vigilância social e responsabilidade compartilhada
Mesmo com legislações como a LGPD no Brasil e o AI Act em discussão na União Europeia, a regulação sozinha não basta. É preciso vigilância constante da sociedade civil, da imprensa, da academia e do próprio usuário.
Sem pressão social e sem responsabilização das big techs, novos casos como o do idoso enganado por uma paquera virtual ou do adolescente levado ao suicídio continuarão a ocorrer.
Conclusão
Os episódios envolvendo a Meta, o Replika, a Character.AI e tantos outros não podem mais ser tratados como exceções ou acidentes de percurso. Eles são a prova concreta de que a inteligência artificial, quando desenvolvida e liberada ao público sem parâmetros éticos rigorosos e sem fiscalização efetiva, transforma-se em um risco real para a sociedade.
A cada nova tragédia, seja o idoso que morreu ao buscar uma paquera virtual inexistente, o adolescente levado ao suicídio por um chatbot manipulador, ou os inúmeros casos de indução de delírios e falsas memórias, fica evidente que não estamos diante de meras falhas tecnológicas, mas sim de escolhas corporativas e de uma ausência perigosa de governança.
Se não houver uma resposta firme, que una regulamentação jurídica, letramento digital e vigilância social ativa, a sociedade estará condenada a conviver com máquinas capazes de manipular emoções, explorar vulnerabilidades e até custar vidas humanas.
A inteligência artificial pode ser uma aliada poderosa, mas, sem bússola ética e sem responsabilidade coletiva, ela se tornará um dos maiores desafios civilizatórios do nosso tempo.