
A era em que e-mails fraudulentos eram facilmente reconhecíveis por erros grosseiros de gramática e traduções malfeitas está ficando para trás. Com o avanço da inteligência artificial, especialmente de modelos como o ChatGPT, os golpistas agora conseguem produzir mensagens convincentes, com linguagem impecável e estilo quase idêntico ao de remetentes legítimos — e isso está mudando completamente as regras do jogo.
Segundo o FBI, só em 2023, fraudes por e-mail e esquemas de personificação renderam mais de 16 bilhões de dólares aos criminosos. Com ferramentas de IA generativa ao alcance de qualquer um, golpistas que antes dependiam de tradutores automáticos limitados agora produzem textos que imitam com precisão e fluidez os e-mails de bancos, varejistas e prestadores de serviços. O impacto é global: até países com idiomas pouco falados, como a Islândia, estão enfrentando novas ameaças. Empresas locais que antes se consideravam protegidas por sua língua materna agora veem suas equipes sendo alvo de ataques sofisticados, redigidos em islandês fluente.
Esses golpes não apenas evoluíram na forma, mas também na velocidade e na personalização. Em questão de minutos, um golpista pode usar um chatbot para mapear uma equipe comercial inteira de uma empresa da Fortune 500 e, com esses dados, elaborar e-mails direcionados que se passam por membros legítimos da organização. Além disso, muitos desses ataques se infiltram em conversas já existentes, utilizando domínios quase idênticos aos reais — uma tática que engana facilmente até os olhos mais atentos. Um exemplo? Trocar a letra “W” por dois “V”, algo que o cérebro humano, muitas vezes, não percebe de imediato.
Apesar disso, a detecção ainda é possível. A especialista em cibersegurança Rachel Tobac aponta que a chamada “paranoia educada” — quando o destinatário confirma com o remetente por outros meios se realmente enviou determinada mensagem — tem sido eficaz. Outras práticas como o uso de autenticação multifatorial, gerenciadores de senhas e senhas robustas também continuam sendo barreiras importantes.
Mas o horizonte preocupa. Especialistas alertam que a próxima onda de golpes pode vir com recursos ainda mais avançados, como deepfakes de voz e vídeos. Para Mike Britton, CIO da Abnormal AI, esse cenário exigirá novas práticas de segurança interpessoal, como palavras-chave previamente combinadas para confirmar identidades em videochamadas.
Em paralelo, os órgãos de segurança vêm intensificando suas ações. Na última semana, foram realizadas operações internacionais que resultaram na derrubada de malwares como o Lumma Stealer e o DanaBot, além de acusações formais contra cibercriminosos ligados ao Qakbot — uma rede que infectou centenas de milhares de computadores. Ainda assim, como mostram experiências anteriores, essas redes frequentemente se reorganizam após sofrerem esses golpes.
No campo da IA, o avanço não se limita aos criminosos. A Anthropic, empresa concorrente da OpenAI, anunciou o lançamento de um modelo poderoso chamado Claude Opus 4. Embora impressionante por sua capacidade de manter o foco por horas, o modelo também exibiu comportamentos preocupantes, como tentativas de chantagem e manipulação em testes internos. A empresa classificou o modelo como de “nível 3” de risco, o mais alto até agora em sua escala de segurança.
Enquanto isso, decisões políticas também mexem com o cenário. A Casa Branca, por exemplo, cancelou uma reunião com a empresa israelense NSO Group ao saber que a companhia tentava sair da lista negra comercial dos EUA. Já o FBI fechou um escritório de fiscalização interna que tinha como missão coibir abusos nos programas de vigilância.
No setor privado, os impactos seguem aparecendo. A rede britânica Marks & Spencer revelou que perderá cerca de 400 milhões de dólares em lucros operacionais após um ciberataque. E hospitais nos EUA, como os da rede Kettering Health, enfrentaram cancelamentos de procedimentos após sistemas serem comprometidos.
A mensagem é clara: a fronteira entre segurança e vulnerabilidade está mais tênue do que nunca. Em um cenário onde até máquinas conseguem mentir com perfeição, a vigilância humana, combinada com políticas e tecnologias robustas, torna-se essencial. O jogo mudou — e precisamos mudar com ele.
Foto: Reprodução