Quando o Algoritmo Vira Cúmplice e Fomentador. A Urgência de Regular as Plataformas para Proteger Nossas Crianças
Por Calza Neto e Fernanda Nogueira

A denúncia feita no início de agosto de 2025 pelo influenciador Felca, que ultrapassou 20 milhões de visualizações em poucos dias, expôs uma realidade perturbadora e de alto risco social: a “adultização” e a exploração de crianças nas redes sociais, fomentadas por algoritmos que não apenas toleram, mas ativamente identificam, sugerem e conectam usuários em torno de conteúdos ilícitos. Felca mostrou que, mesmo a partir de contas recém-criadas, as plataformas rapidamente recomendam imagens e vídeos com conotação sexual envolvendo menores, além de indicar perfis semelhantes. Nos comentários, códigos cifrados como “trade” funcionam como portas de entrada para grupos fechados em aplicativos de mensagens, onde circula material de abuso infantil. O que parecia mera personalização de conteúdo se revelou, na prática, um mecanismo de aproximação entre pessoas com interesses criminosos, potencialmente configurando responsabilidade solidária da plataforma que viabiliza essa conexão.
O impacto político foi imediato. A repercussão da denúncia no Congresso Nacional gerou a apresentação de dezenas de propostas legislativas voltadas a proibir a monetização e recomendação de conteúdos com menores, tipificar penalmente a “adultização digital” e impor obrigações preventivas e de auditoria sobre os sistemas de recomendação. No Senado, o caso impulsionou convites para audiências públicas e reativou investigações sobre crimes digitais contra crianças, reacendendo a discussão sobre a criação de um marco regulatório robusto para plataformas digitais.
Esse movimento legislativo ocorre em um contexto jurídico já modificado por decisão recente do Supremo Tribunal Federal. Em junho de 2025, ao revisar o artigo 19 do Marco Civil da Internet, a Corte determinou que conteúdos de extrema gravidade, como pornografia infantil e exploração sexual de menores, devem ser removidos assim que a plataforma for notificada, dispensando ordem judicial prévia. Também fixou que, em casos de replicação, a obrigação se estende a todas as plataformas, e que conteúdos impulsionados ou automatizados geram responsabilidade presumida, salvo prova de atuação diligente. Essa decisão dialoga diretamente com o Estatuto da Criança e do Adolescente, que já criminaliza a produção, distribuição e posse de material pornográfico infantil, e reforça que a omissão diante de conteúdos sabidamente ilícitos pode configurar responsabilidade direta.
O papel ativo dos algoritmos é, nesse debate, o ponto mais sensível. Não se trata de ferramentas neutras: ao identificar padrões, sugerir conteúdos e aproximar indivíduos com interesses semelhantes, inclusive quando esses interesses são criminosos, as plataformas assumem um papel de facilitadoras. Mais grave ainda, muitas delas disponibilizam e mantêm fóruns de discussão, canais e grupos em aplicativos de mensagens que servem como ambientes estáveis e seguros para a troca de experiências, técnicas e material ilícito. Esses espaços, longe de serem meros pontos de encontro, funcionam como verdadeiras infraestruturas de manutenção e expansão das comunidades criminosas, permitindo que novos integrantes sejam recrutados, que redes ilícitas se fortaleçam e que a prática se normalize entre seus participantes. Nesse cenário, há um liame direto entre a conduta criminosa e o ecossistema digital que a abriga, o que justifica a responsabilização não apenas pela omissão, mas pela contribuição efetiva à sua continuidade.
Vale destacar que, quando se ergue a bandeira da “liberdade de expressão” para se opor à regulação — ou mesmo à aplicação efetiva das leis já vigentes — sobre redes e plataformas, o que se revela, na maioria das vezes, é um profundo desconhecimento sobre a arquitetura tecnológica que identifica, recomenda e impulsiona conteúdos ilícitos e criminosos. Esse desconhecimento é ainda mais grave quando envolve a exposição de crianças a conteúdos nocivos ou criminosos, muitas vezes impulsionados por mecanismos de recomendação que deveriam protegê-las. Não há direito fundamental que possa ser invocado para justificar o favorecimento ou a promoção de crimes, especialmente quando colocam em risco a integridade física, emocional e sexual de menores; quando se trata de impulsionamento de práticas criminosas, a liberdade de expressão simplesmente não se sustenta.
A necessidade de regulação decorre de três realidades inescapáveis. Primeiro, a escala e a velocidade: crimes que antes exigiam meses de articulação agora encontram estrutura em minutos graças à recomendação algorítmica. Segundo, a opacidade tecnológica: não há transparência sobre como conteúdos são recomendados e priorizados. Terceiro, a ausência de fiscalização preventiva: as ações ainda são reativas, dependem de denúncias manuais e não impedem que o material circule e seja replicado em escala global.
O caso Felca deixa claro que o problema não está apenas no conteúdo disponível, mas na arquitetura que o distribui e potencializa. Algoritmos que conectam pessoas para a prática de crimes e ferramentas digitais que sustentam essas redes deixam de ser meros instrumentos e passam a integrar a cadeia de responsabilidade. A decisão do STF abriu caminho para uma responsabilização mais ágil e efetiva, mas apenas uma legislação clara, com regras objetivas, mecanismos de fiscalização e sanções proporcionais, poderá transformar essa diretriz judicial em proteção real. Enquanto isso não for feito, as comunidades criminosas continuarão explorando as brechas digitais para ameaçar o que temos de mais valioso: a integridade e a dignidade das nossas crianças.
Assim, proteger crianças e combater a propagação de conteúdos ilícitos no ambiente digital não é tarefa exclusiva de um ente ou de uma instituição, é uma responsabilidade conjunta do Estado e da sociedade. Cabe ao poder público fiscalizar, regulamentar e aplicar de forma rigorosa a legislação, enquanto a sociedade deve exigir transparência e responsabilidade das plataformas, cobrando que seus mecanismos não impulsionem o crime, mas sim atuem de forma preventiva e protetiva. Somente com essa atuação coordenada será possível garantir que a tecnologia, em vez de servir de combustível para violações, seja uma aliada na preservação da integridade das nossas crianças e da segurança de toda a coletividade.