
A Inteligência Artificial (IA) pode mudar radicalmente o setor de segurança cibernética, segundo Jen Easterly, ex-diretora da Agência de Segurança Cibernética e de Infraestrutura dos EUA (CISA). Ela afirma que a IA é capaz de detectar e corrigir falhas de software com uma velocidade inédita, deixando menos espaço para ações criminosas.
Durante a conferência de usuários do AuditBoard, em San Diego, Easterly ressaltou a expansão das ameaças cibernéticas, citando invasores de países como China, Rússia, Irã e Coreia do Norte, além de grupos hackers. “Se o cibercrime fosse uma nação, seria a terceira maior do mundo, atrás apenas dos EUA e da China”, disse.
No entanto, para Easterly, o problema central não é a segurança em si, mas a qualidade do software. Falhas frequentes surgem da pressa em lançar produtos no mercado e da busca por redução de custos, em detrimento da segurança.
IA: Uma Faca de Dois Gumes
A IA pode tanto fortalecer hackers, ajudando-os a criar malwares sofisticados e ataques de phishing personalizados, quanto apoiar os defensores. Segundo Easterly, se usada corretamente, a IA poderá detectar vulnerabilidades, criar contramedidas e garantir que o software seja seguro por design, mudando radicalmente a forma como a segurança cibernética é tratada.
“Se conseguirmos desenvolver e governar essas tecnologias de forma segura, a violação de segurança deixará de ser um custo inerente e se tornará uma mera anomalia”, afirmou.
Foco na Segurança por Design
Easterly também defendeu desmistificar os hackers e reforçou que muitas vulnerabilidades exploradas são antigas e conhecidas, como injeção de SQL, travessia de diretórios e codificação insegura de memória. “Não é nada revolucionário; são os clássicos”, disse.
Ela destaca que a solução está em exigir segurança por design: softwares criados, testados e entregues com a segurança como prioridade, transferindo menos risco para os clientes. A IA tem papel crucial nesse processo, identificando falhas e ajudando a corrigir a “dívida técnica” acumulada ao longo de anos.
O Plano de Ação de IA da Casa Branca reforça essa abordagem, defendendo sistemas de IA seguros desde a concepção. Richard Marcus, CISO do AuditBoard, concorda que exigir padrões elevados de fornecedores e equipes internas é essencial para reduzir riscos de forma significativa.



