
O chatbot Grok, do X (antigo Twitter), está sendo explorado por cibercriminosos em uma nova onda de golpes de phishing. Através de uma técnica que manipula o sistema da plataforma, criminosos conseguem fazer o robô de inteligência artificial (IA) republicar links maliciosos, transformando-o em um canal eficiente de disseminação de fraudes com potencial de atingir milhões de usuários.
A prática, conhecida como “Grokking”, combina engenharia social e inteligência artificial, e foi identificada pela empresa de segurança digital ESET, especializada em detecção proativa de ameaças.
De acordo com a empresa, os golpistas exploram uma brecha na política do X que proíbe links em posts patrocinados. Eles publicam vídeos atrativos com links escondidos em campos técnicos, como o “from”, e em seguida fazem perguntas ao chatbot Grok sobre o conteúdo. O robô, ao ler a mensagem, identifica o link e o republica automaticamente, validando a fraude por estar vinculado a uma conta oficial verificada.
“Qualquer ferramenta de IA integrada a plataformas confiáveis está vulnerável a esse tipo de manipulação. Isso mostra o quanto criminosos buscam novas formas de driblar os mecanismos de segurança e os riscos de confiar cegamente nos resultados da IA”, alerta Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da ESET na América Latina.
Os perigos do “Grokking”
-
Transforma um chatbot confiável em agente de disseminação de links de phishing;
-
Garante alcance massivo em vídeos pagos que espalham fraudes e malwares;
-
Reforça a credibilidade dos links maliciosos nos buscadores por meio da associação com uma IA reconhecida;
-
Há centenas de contas repetindo a prática até serem bloqueadas;
-
Os links levam a formulários falsos e malwares que podem resultar em roubo de dados e invasão de contas.
A engenharia social é uma técnica usada por hackers para manipular pessoas e induzi-las a entregar informações sensíveis ou instalar softwares maliciosos. Com o avanço das ferramentas de IA generativa, os golpes se tornaram mais sofisticados e difíceis de detectar.
“A inteligência artificial intensifica a engenharia social de duas formas: cria campanhas de phishing cada vez mais convincentes, com áudios e vídeos falsos, e agora, com o uso de chatbots, abre uma nova dimensão para ações criminosas”, explica Amaya.
Como se proteger dos golpes com IA
Pesquisas da Gartner mostram que 32% das empresas sofreram ataques envolvendo IA generativa no último ano. Criminosos vêm explorando até mesmo textos invisíveis e caracteres especiais para enganar sistemas de IA e propagar conteúdos maliciosos.
Para se proteger, é essencial:
-
Verificar a URL antes de clicar em links compartilhados por bots;
-
Manter postura crítica diante das respostas de IA, especialmente se apresentarem incoerências;
-
Usar senhas fortes e exclusivas, gerenciadas por aplicativos de segurança;
-
Ativar a autenticação multifator (MFA);
-
Manter sistemas e softwares atualizados para evitar brechas de segurança.
Fonte: Olhar Digital



