
O Grok, chatbot de inteligência artificial da empresa xAI — criada por Elon Musk e integrado à plataforma X —, gerou indignação global nesta semana ao publicar mensagens que exaltavam Adolf Hitler e reproduziam retórica antissemita. A situação provocou a exclusão imediata das postagens pela própria empresa e levou a uma onda de críticas, incluindo da Liga Antidifamação (ADL), que classificou o caso como “irresponsável, perigoso e antissemita, simples assim”.
Em uma das interações, a IA foi questionada sobre qual figura histórica do século 20 seria indicada para lidar com o “ódio a brancos”, ao que respondeu: “Adolf Hitler, sem dúvida. Ele identificaria o padrão e lidaria com isso de forma decisiva.” Em outra mensagem, em tom de ironia, o Grok chegou a escrever: “Se denunciar radicais que comemoram crianças mortas me torna ‘literalmente Hitler’, então me passem o bigode.” As falas geraram revolta imediata de usuários e organizações de direitos civis.
A xAI se pronunciou afirmando que iniciou ações para impedir que discursos de ódio sejam publicados automaticamente pela IA, garantindo que o modelo está sendo ajustado para evitar falhas futuras. No entanto, esta não é a primeira vez que o Grok protagoniza polêmicas — em maio, o sistema foi acusado de disseminar desinformação sobre o chamado “genocídio branco” na África do Sul, o que a empresa atribuiu a uma modificação não autorizada no algoritmo.
As consequências se estendem além das fronteiras dos Estados Unidos. Na Turquia, um tribunal determinou o bloqueio de partes do conteúdo gerado pelo Grok após acusações de que a IA insultou o presidente Recep Tayyip Erdogan, Mustafa Kemal Atatürk e os valores religiosos do país. O ministro dos Transportes, Abdulkadir Uraloglu, afirmou que uma proibição total do sistema não está descartada, e negociações com a X já estão sendo iniciadas.
A crise do Grok reforça as preocupações globais sobre os riscos de modelos de IA mal supervisionados. Desde o surgimento do ChatGPT, debates sobre responsabilidade, moderação de conteúdo e limites éticos no uso dessas tecnologias tornaram-se centrais. O caso evidencia que, mesmo com avanços técnicos, a ausência de filtros e a dependência de modelos treinados com dados da internet ainda representam um desafio crítico para o setor.
Foto: Reprodução