
Nesta terça-feira, 14, Sam Altman, CEO da OpenAI, anunciou que o ChatGPT passará a gerar conteúdo erótico para adultos verificados, além de flexibilizar outras restrições de segurança, incluindo temas relacionados à saúde mental. No mesmo dia, a Agência Nacional de Proteção de Dados (ANPD) divulgou o Radar Tecnológico 5, documento que detalha e padroniza mecanismos de aferição de idade.
A perspectiva de uma versão 18+ trouxe novamente para o centro do debate a verificação de idade e a proteção de dados sensíveis. Altman afirmou em sua conta no X (antigo Twitter) que a OpenAI sabe que o ChatGPT ficou “menos útil ou agradável”, e que, uma vez mitigados os problemas, será possível “relaxar restrições com segurança na maioria dos casos”. Ele também destacou que, em algumas semanas, uma nova versão da IA terá uma personalidade mais humana, e que o conteúdo erótico deve ser liberado em dezembro, sob a premissa de “tratar usuários adultos como adultos”.
Para Calza Neto, DPO do Corinthians, a oferta voltada a adultos “impõe novos riscos e desafios à privacidade e à proteção de dados, exigindo cuidado com a LGPD e as diretrizes do Radar Tecnológico nº 5 da ANPD sobre aferição de idade”. Neto defende a aplicação rigorosa dos princípios de minimização, finalidade e segurança, coletando apenas os dados estritamente necessários, com base legal adequada, e adotando medidas técnicas robustas como criptografia, controle de acesso e segregação de dados. Ele reforça que o Relatório de Impacto à Proteção de Dados (RIPD) deve anteceder a operação, garantindo transparência e responsabilidade, mapeando riscos e definindo contramedidas.
Questionado sobre proteção de menores, Neto destaca que a autodeclaração isolada não é suficiente. O método ideal combina verificação documental automatizada, biometria facial estimativa e prova de vida, com descarte imediato dos dados após validação. Segundo ele, o sistema deve ser auditável e rastreável, documentando tentativas de fraude, bloqueando reentradas e garantindo privacy by design.
O Radar Tecnológico 5 ainda recomenda modelos complementares, como análise de comportamento linguístico, padrões de digitação e metadados, sempre condicionados à proporcionalidade e minimização. Para Neto, a accountability exige trilhas de auditoria, testes e revisões periódicas. Plataformas adultas devem adotar monitoramento automatizado de comportamentos suspeitos, bloqueio de interações abusivas e restrições técnicas para impedir memorização indevida de dados pessoais, complementadas por moderação ativa, canais de denúncia e planos de resposta a incidentes.
Quanto a vazamentos, o DPO enfatiza contratos que proíbam o reuso de dados e auditorias independentes. Boas práticas incluem isolamento de sessões, opt-out para treinamento, retenção mínima, anonimização de registros e testes de segurança recorrentes. Essa abordagem se alinha às melhores práticas de governança de dados em IA generativa, distinguindo telemetria operacional minimizada de dados sensíveis.
No Brasil, a responsabilização depende da presença local da OpenAI. Caso exista representação, ela atua como controladora local, enquanto a sede global é controladora conjunta. Sem representação, aplica-se a extraterritorialidade, e a OpenAI nos EUA responde integralmente pelo tratamento de dados de brasileiros.
A repercussão continuou na quarta-feira, 15, com Altman reforçando que a OpenAI não flexibilizará políticas de saúde mental, que menores continuarão protegidos e que o ChatGPT seguirá não permitindo respostas que possam causar danos a terceiros. Ele concluiu afirmando: “Mas não somos a polícia moral eleita do mundo”.