Colunistas
Tendência

O Novo Padrão é: “Parece Real”. Quando tudo parece real, a confiança precisa ser comprovada.

João Back

O Novo Padrão é: “Parece Real”

Imagine a cena: você recebe uma videochamada do seu CEO pedindo para transferir dinheiro. A reação imediata é acreditar. Afinal, parece real. Essa é a questão — o novo padrão é justamente esse: tudo parece real. E isso muda completamente o jogo da engenharia social.

No passado, criminosos precisavam de talento, criatividade e tempo. Hoje, basta computação.

Os modelos generativos transformaram a persuasão em código. Tudo o que você diz, eles conseguem reproduzir — mais rápido. Tudo o que você imita, eles imitam — mais barato. A ENISA já mostrou: em 2024, ataques de phishing usando deepfake aumentaram 350%. Mas mais do que o número, o que assusta é a curva — e software sempre cresce em curva exponencial.

E aqui vai a provocação: deepfake não é só um problema de conteúdo. É um problema de identidade. Se eu consigo criar algo que soa e se parece com você, seus colegas vão acreditar — porque a maioria das empresas ainda confia apenas em rosto e voz. Isso funcionava quando falsificar custava caro. Mas hoje, falsificar é praticamente de graça.

O que muda na prática

* Comprometimento de e-mail deixa de ser só e-mail. Agora é vídeo no Teams, áudio no WhatsApp ou até mensagem de texto copiada com erros e estilo idênticos. A isca é sempre a mesma: urgência.
* Ransomware ganha um “parceiro de crime”. LLMs escrevem o código que conecta acesso, movimentação lateral e roubo de dados. Não é genialidade, é insistência automatizada.
* Evasão deixa de ser arte obscura. Já não precisa de um hacker brilhante, apenas de um script que gera infinitas variantes até passar despercebido.
* Seus próprios copilotos podem ser enganados. Injeção de prompt é engenharia social aplicada a máquinas. Se o modelo lê um dado manipulado, vai obedecer. E se esse modelo estiver conectado a ferramentas críticas, você basicamente deu acesso root a um “estagiário persuasivo”.

Onde está a assimetria

Ser humano acredita no que parece plausível. Segurança depende do que é provável e verificável. Os deepfakes exploram esse abismo. O caminho não é tentar olhar e “sentir” se é real, e sim estruturar os processos para que só decisões verificáveis avancem.

Em resumo: verificação vence detecção.

Se um vídeo for assinado criptograficamente no momento da gravação, você não precisa discutir se a boca mexeu no tempo errado. Se um pagamento só puder ser liberado com uma senha enviada por outro canal, não importa o quão convincente esteja a voz na chamada.

O que já funciona hoje

* Deixe a identidade física. Chaves de hardware, assinaturas digitais para dispositivos e até palavras-código curtas para aprovações críticas. Se for urgente, desacelere: faça uma checagem fora de banda antes de mover dinheiro ou dados.
* Prefira origem a análise forense. Capture mídia assinada. Se não der, trate o que não for assinado como não confiável.
* Trate LLMs como ferramentas elétricas. Eles não são bichinhos de estimação. Devem ter função clara, acesso mínimo e sempre passar por um firewall de prompts que filtra e registra tudo.
* Olhe para comportamento, não strings. Código muda, mas comportamento se repete. Monitoramento de memória, privilégio mínimo, assinatura de scripts — os controles básicos continuam sendo os que mais atrapalham o atacante.
* Treine as pessoas para não se deixarem apressar. Só isso. Ensine a frase: “Eu te retorno no seu número”. Simples, direto, poderoso.
* Reduza o que pode ser roubado. Quanto menos dados sensíveis e acessos amplos, menor o impacto quando (não se) acontecer.

Reguladores estão se movendo

E dá para usar isso a favor:

* NIST AI RMF ajuda a estruturar riscos de IA de forma clara.
* ISO 42001 cria uma extensão natural do que já é a ISO 27001, mas para IA.
* LGPD é sua aliada. Menos dados pessoais guardados = menos risco de deepfakes + menos multas.

Um caminho simples (e realista)

Muitas empresas travam porque tentam resolver tudo de uma vez. Não precisa. Basta seguir uma ordem:

1. Detectar: ative o que já tem (DMARC, sandbox, assinatura de scripts), adicione checagem de deepfake em canais críticos e registre tudo que os sistemas de IA fazem.
2. Analisar: correlacione sinais fracos. Um alerta isolado pode ser nada, mas dois ou três juntos podem ser um ataque real.
3. Responder: troque políticas genéricas por fluxos claros. Exemplo: para pagamentos, código + retorno de chamada + duas pessoas aprovando.

Onde entram as ferramentas

Ferramentas fazem sentido quando aplicam automaticamente os controles básicos.
No nosso caso, usamos o Cortex para ficar entre pessoas, modelos e ferramentas. Ele reescreve prompts, impõe limites e exige planos assinados para ações críticas. A GRCTech funciona como o livro-razão que garante políticas, papéis, evidências e auditoria. O ponto não é a marca, é o formato: verifique primeiro, automatize os trilhos e torne a prova barata.

A mudança real

Quando falsificações são de graça, confiança precisa ser cara de gerar e barata de verificar.
Não peça que sua equipe vire especialista em rostos ou vozes. Peça que todos sejam especialistas em perguntar: “Me mostra a prova.”

Atacantes vão continuar parecendo reais. Tudo bem. Faça com que eles falhem na hora de ser reais.

👉 Esse é o jogo. Não é glamour, não é ficção científica. É só fazer o próximo controle básico, e depois o próximo, até que a urgência e a manipulação parem de funcionar contra você.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo