O Novo Padrão é: “Parece Real”. Quando tudo parece real, a confiança precisa ser comprovada.
João Back

O Novo Padrão é: “Parece Real”
Imagine a cena: você recebe uma videochamada do seu CEO pedindo para transferir dinheiro. A reação imediata é acreditar. Afinal, parece real. Essa é a questão — o novo padrão é justamente esse: tudo parece real. E isso muda completamente o jogo da engenharia social.
No passado, criminosos precisavam de talento, criatividade e tempo. Hoje, basta computação.
Os modelos generativos transformaram a persuasão em código. Tudo o que você diz, eles conseguem reproduzir — mais rápido. Tudo o que você imita, eles imitam — mais barato. A ENISA já mostrou: em 2024, ataques de phishing usando deepfake aumentaram 350%. Mas mais do que o número, o que assusta é a curva — e software sempre cresce em curva exponencial.
E aqui vai a provocação: deepfake não é só um problema de conteúdo. É um problema de identidade. Se eu consigo criar algo que soa e se parece com você, seus colegas vão acreditar — porque a maioria das empresas ainda confia apenas em rosto e voz. Isso funcionava quando falsificar custava caro. Mas hoje, falsificar é praticamente de graça.
O que muda na prática
* Comprometimento de e-mail deixa de ser só e-mail. Agora é vídeo no Teams, áudio no WhatsApp ou até mensagem de texto copiada com erros e estilo idênticos. A isca é sempre a mesma: urgência.
* Ransomware ganha um “parceiro de crime”. LLMs escrevem o código que conecta acesso, movimentação lateral e roubo de dados. Não é genialidade, é insistência automatizada.
* Evasão deixa de ser arte obscura. Já não precisa de um hacker brilhante, apenas de um script que gera infinitas variantes até passar despercebido.
* Seus próprios copilotos podem ser enganados. Injeção de prompt é engenharia social aplicada a máquinas. Se o modelo lê um dado manipulado, vai obedecer. E se esse modelo estiver conectado a ferramentas críticas, você basicamente deu acesso root a um “estagiário persuasivo”.
Onde está a assimetria
Ser humano acredita no que parece plausível. Segurança depende do que é provável e verificável. Os deepfakes exploram esse abismo. O caminho não é tentar olhar e “sentir” se é real, e sim estruturar os processos para que só decisões verificáveis avancem.
Em resumo: verificação vence detecção.
Se um vídeo for assinado criptograficamente no momento da gravação, você não precisa discutir se a boca mexeu no tempo errado. Se um pagamento só puder ser liberado com uma senha enviada por outro canal, não importa o quão convincente esteja a voz na chamada.
O que já funciona hoje
* Deixe a identidade física. Chaves de hardware, assinaturas digitais para dispositivos e até palavras-código curtas para aprovações críticas. Se for urgente, desacelere: faça uma checagem fora de banda antes de mover dinheiro ou dados.
* Prefira origem a análise forense. Capture mídia assinada. Se não der, trate o que não for assinado como não confiável.
* Trate LLMs como ferramentas elétricas. Eles não são bichinhos de estimação. Devem ter função clara, acesso mínimo e sempre passar por um firewall de prompts que filtra e registra tudo.
* Olhe para comportamento, não strings. Código muda, mas comportamento se repete. Monitoramento de memória, privilégio mínimo, assinatura de scripts — os controles básicos continuam sendo os que mais atrapalham o atacante.
* Treine as pessoas para não se deixarem apressar. Só isso. Ensine a frase: “Eu te retorno no seu número”. Simples, direto, poderoso.
* Reduza o que pode ser roubado. Quanto menos dados sensíveis e acessos amplos, menor o impacto quando (não se) acontecer.
Reguladores estão se movendo
E dá para usar isso a favor:
* NIST AI RMF ajuda a estruturar riscos de IA de forma clara.
* ISO 42001 cria uma extensão natural do que já é a ISO 27001, mas para IA.
* LGPD é sua aliada. Menos dados pessoais guardados = menos risco de deepfakes + menos multas.
Um caminho simples (e realista)
Muitas empresas travam porque tentam resolver tudo de uma vez. Não precisa. Basta seguir uma ordem:
1. Detectar: ative o que já tem (DMARC, sandbox, assinatura de scripts), adicione checagem de deepfake em canais críticos e registre tudo que os sistemas de IA fazem.
2. Analisar: correlacione sinais fracos. Um alerta isolado pode ser nada, mas dois ou três juntos podem ser um ataque real.
3. Responder: troque políticas genéricas por fluxos claros. Exemplo: para pagamentos, código + retorno de chamada + duas pessoas aprovando.
Onde entram as ferramentas
Ferramentas fazem sentido quando aplicam automaticamente os controles básicos.
No nosso caso, usamos o Cortex para ficar entre pessoas, modelos e ferramentas. Ele reescreve prompts, impõe limites e exige planos assinados para ações críticas. A GRCTech funciona como o livro-razão que garante políticas, papéis, evidências e auditoria. O ponto não é a marca, é o formato: verifique primeiro, automatize os trilhos e torne a prova barata.
A mudança real
Quando falsificações são de graça, confiança precisa ser cara de gerar e barata de verificar.
Não peça que sua equipe vire especialista em rostos ou vozes. Peça que todos sejam especialistas em perguntar: “Me mostra a prova.”
Atacantes vão continuar parecendo reais. Tudo bem. Faça com que eles falhem na hora de ser reais.
👉 Esse é o jogo. Não é glamour, não é ficção científica. É só fazer o próximo controle básico, e depois o próximo, até que a urgência e a manipulação parem de funcionar contra você.