ColunistasNews
Tendência

Quando a IA se torna o hacker mais competente do mundo

Por Altevir Ferezin Jr.

O caso Anthropic Mythos redefiniu o que significa risco cibernético e colocou
uma questão urgente na pauta dos boards: sua empresa está preparada para um
mundo onde máquinas exploram vulnerabilidades sozinhas?
Há algumas semanas, o mundo da cibersegurança acordou com uma notícia que parecia
saída de um roteiro de ficção científica, mas não era. A Anthropic, uma das mais
respeitadas empresas de inteligência artificial do mundo, revelou que seu novo modelo,
batizado de Claude Mythos Preview, havia descoberto, de forma completamente
autônoma, milhares de vulnerabilidades críticas desconhecidas em todos os principais
sistemas operacionais e navegadores do mercado. Algumas dessas falhas existiam há

mais de duas décadas, escondidas em linhas de código que passaram por incontáveis
revisões humanas e ferramentas automatizadas sem serem detectadas.
Não foi um teste de laboratório controlado. Não foi uma prova de conceito acadêmica.
Foi o mundo real, rodando em produção, sendo varrido por uma máquina que opera
com uma capacidade técnica que, como a própria Anthropic admitiu, "supera todos,
exceto os mais habilidosos hackers humanos".
"Não treinamos explicitamente o Mythos para ter essas capacidades. Elas
emergiram como consequência de melhorias gerais em código, raciocínio e
autonomia."
— Equipe de Pesquisa da Anthropic, Abril 2026
Esse detalhe é, talvez, o mais perturbador de toda a história. Não se trata de um sistema
deliberadamente projetado para o ataque. As capacidades ofensivas surgiram como
efeito colateral de um modelo que ficou simplesmente muito bom em raciocinar sobre
código e isso muda fundamentalmente a discussão que os boards precisam ter sobre
risco tecnológico.

72% taxa de sucesso na criação de exploits funcionais
29 min tempo médio de breakout de eCrime em 2026 (CrowdStrike)
22 s tempo de handoff entre adversários (Mandiant M-Trends)

Uma falha de 17 anos resolvida em uma noite
Para entender a magnitude do que aconteceu, vale detalhar um caso concreto. O Mythos
identificou e explorou de forma autônoma uma vulnerabilidade com 17 anos de
existência no servidor NFS do FreeBSD — sistema usado em firewalls e infraestrutura
crítica ao redor do mundo. O resultado: acesso root completo, sem qualquer
autenticação, por qualquer usuário conectado à internet. O exploit foi construído do
zero, sem intervenção humana após o prompt inicial. Um trabalho que levaria dias ou
semanas para um pesquisador humano experiente foi concluído em horas, a um custo
operacional inferior a dois mil dólares.
O modelo também encontrou um bug de 27 anos no OpenBSD (sistema amplamente
reconhecido justamente por sua segurança rigorosa) e uma falha de 16 anos no FFmpeg,
biblioteca presente em praticamente toda a cadeia de processamento de vídeo da
internet. Em um benchmark com o Firefox 147, onde o modelo anterior da Anthropic
(Claude Opus 4.6) produziu apenas dois exploits funcionais em centenas de tentativas, o
Mythos entregou 181.
"Engenheiros sem treinamento formal em segurança pediram ao Mythos que
encontrasse vulnerabilidades de execução remota de código durante a noite e
acordaram com um exploit completo e funcional."
Anthropic Red Team Blog, Abril 2026
A decisão responsável — e o que ela revela

O que diferencia essa história de um simples alerta técnico é a atitude que a Anthropic
tomou diante da descoberta. Em vez de comercializar ou liberar o modelo, a empresa
tomou a decisão de restringir completamente o acesso ao Mythos e criou o
chamado Project Glasswing: um consórcio de empresas que utilizará as capacidades do
modelo exclusivamente para encontrar e corrigir vulnerabilidades antes que agentes
maliciosos cheguem lá primeiro.
Os parceiros do Projeto Glasswing incluem alguns dos maiores nomes da tecnologia
global:
Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase,
Linux Foundation, Microsoft, NVIDIA e Palo Alto Networks
Mais de 40 organizações adicionais também receberam acesso controlado, com até 100
milhões de dólares em créditos de uso disponibilizados pela Anthropic para o projeto. A
pergunta que fica, inevitavelmente, é: quantos outros laboratórios de IA, sem a mesma
disposição ética, chegarão ao mesmo ponto, e o que farão com isso?
O que isso significa para os boards?
Nos últimos anos, a cibersegurança avançou de assunto técnico para pauta estratégica
no nível dos conselhos de administração. O caso Mythos dá um passo além: ele
transforma a IA em uma variável de risco sistêmico que precisa ser endereçada não
apenas pelo CISO, mas pelo próprio board, da mesma forma como riscos regulatórios,
geopolíticos ou de reputação são tratados.
Não estamos mais falando de ataques oportunistas conduzidos por scripts
automatizados. Estamos falando de adversários que, em breve, terão à disposição
sistemas capazes de identificar brechas em sua infraestrutura, encadear múltiplas
vulnerabilidades em exploits sofisticados e entregar tudo isso com uma velocidade que
qualquer equipe humana de defesa terá dificuldade em acompanhar.
O WEF, em seu Global Cybersecurity Outlook 2026, é direto: 87% dos líderes globais
enxergam vulnerabilidades relacionadas à IA como o risco cibernético de crescimento
mais rápido. Não é exagero. É a leitura correta do momento.
O paradoxo da mesma faca
Há, porém, um lado que merece igual atenção. A mesma inteligência que torna o
Mythos perigoso é a que o torna extraordinariamente valioso para a defesa. O modelo
consegue fazer em horas o que equipes de segurança levariam semanas, e pode ser
direcionado para proteger antes que qualquer atacante chegue perto. Esse paradoxo, a
faca que tanto corta quanto protege, é o núcleo da discussão que as organizações
precisam ter agora.
A questão deixou de ser "devemos usar IA na nossa estratégia de cibersegurança?" e se
tornou "como usamos IA antes que nossos adversários nos usem como alvo com ela?".
O tempo de resposta encolheu. A janela para agir está se fechando.

Para reflexão do board: Sua organização já revisou sua postura de segurança considerando
adversários com capacidade de IA ofensiva autônoma? Seu CISO tem orçamento e mandato
para incorporar ferramentas de IA defensiva nos próximos 12 meses? Essas não são
perguntas técnicas. São perguntas de governança e precisam de resposta agora.

Altevir Junior

Executivo especialista em CyberSecurity

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo