CiberSegurançaColunistas
Tendência

Claude Mythos na Microsoft: Quando a IA “Perigosa Demais” Vira Estratégia Corporativa

Por RICARDO BRASIL | Café com Bytes

Existe uma narrativa antiga em segurança da informação que diz: a melhor maneira de proteger algo é não contar a ninguém que ele existe. Funciona para senhas, para chaves criptográficas e, aparentemente, agora também para inteligência artificial. Na semana passada, a Microsoft confirmou que será uma das primeiras parceiras oficiais da Anthropic a adotar o Claude Mythos, um modelo de linguagem tão competente em cibersegurança que a própria fabricante decidiu não disponibilizá-lo ao público geral. “Perigoso demais para ser lançado” foi a justificativa.

Essa frase já mereceria uma coluna inteira só para ser dissecada. Mas vamos por partes.

O que está sendo anunciado, na prática
Segundo o comunicado oficial divulgado em 22 de abril, o Claude Mythos será integrado ao Security Development Lifecycle, o conjunto de processos obrigatórios de segurança da Microsoft, com a missão de “identificar e mitigar vulnerabilidades mais cedo, além de coordenar respostas defensivas”. Em termos corporativos, a Microsoft está colocando uma IA com capacidades ofensivas conhecidas para vasculhar o próprio código antes que algum criminoso digital faça a mesma coisa.

A lógica é defensável. Se o adversário vai usar IA para encontrar brechas, faz sentido usar uma IA ainda melhor para fechá-las primeiro. O problema é o que vem depois dessa lógica.

O paradoxo da IA “perigosa demais”
A Anthropic afirma que o Mythos teve “melhorias substanciais em comparação com modelos
anteriores” em testes de cibersegurança, sem detalhar pontuação ou critérios. É exatamente o tipo de comunicação que merece ceticismo: um benchmark sem benchmark, uma medição sem números.

Para gerenciar a aparente periculosidade do modelo, a Anthropic criou o Project Glasswing, uma iniciativa de licenciamento restrito apenas para parceiros corporativos pré-qualificados. Microsoft entrou. O governo dos Estados Unidos está negociando, apesar das tensões entre o presidente Donald Trump e a empresa após o cancelamento de contratos recentes. E o resto do mundo, incluindo o Brasil, observa de fora.

Aqui está o primeiro problema concreto para qualquer um: se a tecnologia mais avançada de defesa cibernética está sendo licenciada apenas para um clube fechado de gigantes corporativos do hemisfério norte, qual é o nosso plano? Esperar pela versão “doméstica” daqui a três anos?
Confiar que os atacantes também não terão acesso?

(Spoiler: os atacantes sempre têm acesso. A história da segurança da informação é uma
sequência ininterrupta de provas disso.)

O incidente que ninguém deveria ignorar
Em reportagem recente do site TecMundo aparece, quase como nota de rodapé, um detalhe que merecia destaque: o Mythos já passou pelo seu primeiro incidente de segurança. Pessoas não autorizadas acessaram o modelo, embora supostamente não o tenham usado para fins ofensivos. Esses “supostamente” é o tipo de palavra que tira o sono de qualquer profissional de segurança.

Pense na sequência lógica: a Anthropic criou um modelo tão poderoso em cibersegurança que decidiu não liberá-lo ao público. Em seguida, o modelo foi acessado por pessoas que não deveriam ter acesso. E a empresa que vende a ideia de IA confiável e responsável precisa, agora, convencer o mercado de que isso foi um caso isolado.

Não é o melhor cartão de visitas para uma plataforma cujo argumento de venda é “nós cuidamos
disso direito”.

A política da escassez controlada
Sam Altman, CEO da OpenAI, classificou o lançamento como “marketing baseado em medo” e uma forma de manter tecnologia “na mão de poucas pessoas”. Vindo dele, com tudo o que envolve a rivalidade entre OpenAI e Anthropic, a crítica precisa ser lida com filtro. Mas ela toca em algo verdadeiro.

Quando uma tecnologia é apresentada como excessivamente perigosa para circulação livre, dois feitos acontecem ao mesmo tempo. Primeiro, ela ganha aura de superioridade técnica difícil de desmentir, justamente porque ninguém pode auditar de perto. Segundo, ela passa a ser um bem escasso e, portanto, caro, restrito e geopoliticamente estratégico. É o velho paradoxo das armas nucleares aplicado a software.

Vale notar que esse modelo de licenciamento restrito tem precedentes claros: criptografia de alto grau, ferramentas de análise forense, software de inteligência militar. A diferença é que IA é mais maleável, mais opaca e infinitamente mais escalável.

O que isso significa para a TI brasileira
A adoção de IA defensiva avançada por parte da Microsoft tem implicações práticas para qualquer empresa que rode produtos Microsoft em produção, ou seja, basicamente todo mundo. Atualizações de segurança devem ficar mais rápidas, vulnerabilidades em pacotes corporativos podem ser detectadas antes de chegarem à exploração ativa, e a postura defensiva da plataforma tende a melhorar.

Boa notícia, em tese.

A má notícia é menos óbvia. Estamos consolidando uma estrutura em que a defesa cibernética avançada depende de poucos provedores globais que decidem, em seus termos, quem entra no clube. Para uma empresa de engenharia brasileira, para um banco regional, para uma operadora de saúde de porte médio, isso significa três coisas práticas:

  • Dependência crescente de fornecedores hyperscalers, que passam a oferecer não apenas computação, mas inteligência defensiva proprietária.
  • Assimetria estratégica, com adversários sofisticados eventualmente acessando capacidades semelhantes via vazamentos, mercado cinza ou simples engenharia reversa.
  • Necessidade de soberania defensiva mínima, ou seja, manter ao menos uma camada de detecção, monitoramento e resposta que não dependa exclusivamente de uma caixa- preta licenciada lá fora.

O que fazer hoje, sem esperar acesso ao Mythos
Para os profissionais de TI, que não vão receber convite para o Project Glasswing tão cedo, (provavelmente todos nós lendo essa coluna), algumas movimentações fazem sentido agora:

Documentar o perímetro real. IA avançada do lado dos atacantes vai testar superfícies que nem sabíamos que existiam. Mapear o que está exposto na internet é trivial e ainda assim quase ninguém faz com rigor.
Investir em telemetria, não em ferramentas mágicas. Modelos de IA defensiva, quando chegarem ao mercado mais amplo, vão depender de logs bem coletados. Quem tiver dado bom, vai ter defesa boa. Quem não tiver, vai pagar consultoria por anos.
Treinar pessoas, não substituir pessoas. A próxima onda de incidentes vai ser explicada por humanos, mesmo que detectada por máquinas. Equipes que entendem o porquê, e não só o como, ainda fazem diferença.
Negociar contratos com cláusulas de transparência. Se a Microsoft está usando IA para inspecionar seu código, exija saber como isso impacta os SLAs e os relatórios de incidente que você recebe.

O elefante na sala
A pergunta inevitável: estamos confortáveis com o fato de que a próxima geração de defesa cibernética vai operar como caixa-preta proprietária, controlada por um número minúsculo de empresas estrangeiras, com critérios de acesso definidos por elas? Eu não estou. E desconfio que muita gente também não está, mas vamos seguir adotando assim mesmo, porque a alternativa parece ser perder tempo de mercado.

A Microsoft fez a escolha que faz sentido para a Microsoft. A Anthropic fez a escolha que faz sentido para a Anthropic. O Project Glasswing protege capital, modelo de negócio e reputação aomesmo tempo. É uma engenharia comercial elegante.

Resta saber se quem está fora do clube vai construir suas próprias respostas, ou apenas esperar
que as decisões boas de poucos resolvam os problemas de muitos. Histórico não recomenda a
segunda opção.

Até o próximo Café com Bytes, com ceticismo saudável e café bem passado.

Ricardo Brasil | Especialista em IA Responsável e Diretor de TI na GWS Engenharia — Colunista Café
com Bytes | Tecnologia | Inteligência Artificial

Sobre o Autor
Ricardo Brasil é Diretor de TI e Gestão Corporativa da GWS Engenharia, especialista em IA Responsável, transformação digital e governança de TI. É colunista da série Café com Bytes, onde escreve semanalmente sobre tecnologia, inteligência artificial e seus impactos no ambiente corporativo brasileiro.

Ricardo Brasil

Executivo de IA e Transformação Digital | Colunista Café com Bytes Com mais de 20 anos liderando inovação e transformação em larga escala nos EUA e América Latina, trago para o Café com Bytes uma perspectiva estratégica sobre o futuro da IA corporativa. Minha jornada começou em cibersegurança, onde construí expertise em gestão de riscos e governança de TI, alicerces que hoje orientam minha atuação em IA Responsável e Agentic AI. Foi na Microsoft que adquiri minha experiência mais significativa em IA, desenvolvendo frameworks de governança e estratégias empresariais que garantem que a IA seja implantada com impacto, ética e escala. Sou autor do livro “5 Passos para a IA Responsável”, onde sistematizo essa abordagem prática para implementação ética de IA nas organizações. Já liderei equipes globais de 500+ profissionais e conduzi integrações pós-M&A e programas de excelência operacional. Combino visão estratégica com execução disciplinada, sempre traduzindo tecnologias emergentes em resultados de negócio mensuráveis. Aqui no Café com Bytes, compartilho insights práticos sobre IA corporativa, governança tecnológica, cibersegurança e liderança em transformação digital para executivos que precisam navegar a revolução da IA com confiança, segurança e clareza estratégica.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo