CiberSegurançaNews
Tendência

Golpe de Phishing: Criminosos usam o chatbot Grok do X para espalhar links maliciosos

Técnica chamada “Grokking” manipula o robô de IA da plataforma para divulgar fraudes, expondo milhões de usuários a roubo de dados e identidade.

O chatbot Grok, do X (antigo Twitter), está sendo explorado por cibercriminosos em uma nova onda de golpes de phishing. Através de uma técnica que manipula o sistema da plataforma, criminosos conseguem fazer o robô de inteligência artificial (IA) republicar links maliciosos, transformando-o em um canal eficiente de disseminação de fraudes com potencial de atingir milhões de usuários.

A prática, conhecida como “Grokking”, combina engenharia social e inteligência artificial, e foi identificada pela empresa de segurança digital ESET, especializada em detecção proativa de ameaças.

De acordo com a empresa, os golpistas exploram uma brecha na política do X que proíbe links em posts patrocinados. Eles publicam vídeos atrativos com links escondidos em campos técnicos, como o “from”, e em seguida fazem perguntas ao chatbot Grok sobre o conteúdo. O robô, ao ler a mensagem, identifica o link e o republica automaticamente, validando a fraude por estar vinculado a uma conta oficial verificada.

“Qualquer ferramenta de IA integrada a plataformas confiáveis está vulnerável a esse tipo de manipulação. Isso mostra o quanto criminosos buscam novas formas de driblar os mecanismos de segurança e os riscos de confiar cegamente nos resultados da IA”, alerta Camilo Gutiérrez Amaya, chefe do laboratório de pesquisa da ESET na América Latina.


Os perigos do “Grokking”

  • Transforma um chatbot confiável em agente de disseminação de links de phishing;

  • Garante alcance massivo em vídeos pagos que espalham fraudes e malwares;

  • Reforça a credibilidade dos links maliciosos nos buscadores por meio da associação com uma IA reconhecida;

  • centenas de contas repetindo a prática até serem bloqueadas;

  • Os links levam a formulários falsos e malwares que podem resultar em roubo de dados e invasão de contas.


A engenharia social é uma técnica usada por hackers para manipular pessoas e induzi-las a entregar informações sensíveis ou instalar softwares maliciosos. Com o avanço das ferramentas de IA generativa, os golpes se tornaram mais sofisticados e difíceis de detectar.

“A inteligência artificial intensifica a engenharia social de duas formas: cria campanhas de phishing cada vez mais convincentes, com áudios e vídeos falsos, e agora, com o uso de chatbots, abre uma nova dimensão para ações criminosas”, explica Amaya.


Como se proteger dos golpes com IA

Pesquisas da Gartner mostram que 32% das empresas sofreram ataques envolvendo IA generativa no último ano. Criminosos vêm explorando até mesmo textos invisíveis e caracteres especiais para enganar sistemas de IA e propagar conteúdos maliciosos.

Para se proteger, é essencial:

  • Verificar a URL antes de clicar em links compartilhados por bots;

  • Manter postura crítica diante das respostas de IA, especialmente se apresentarem incoerências;

  • Usar senhas fortes e exclusivas, gerenciadas por aplicativos de segurança;

  • Ativar a autenticação multifator (MFA);

  • Manter sistemas e softwares atualizados para evitar brechas de segurança.

    Fonte: Olhar Digital

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo
Vote Aqui - Prêmio CCB