CiberSegurançaNews
Tendência

Meta reforça segurança para adolescentes no Instagram com novos recursos contra exploração online

Plataforma implementa proteções avançadas em mensagens diretas e bloqueios simplificados para proteger jovens de golpes e conteúdo abusivo

A Meta anunciou na quarta-feira a implementação de novos recursos de segurança voltados para usuários adolescentes, focando em melhorias nas proteções das mensagens diretas para prevenir o contato com conteúdos exploratórios.

Agora, os adolescentes terão acesso a informações adicionais sobre as contas com que interagem, como a data de criação do perfil no Instagram, além de dicas que ajudam a identificar possíveis golpistas. Também foi facilitado o processo para bloquear e denunciar contas suspeitas com apenas uma ação.

Segundo a Meta, somente em junho, os adolescentes bloquearam cerca de 1 milhão de contas e realizaram outras 1 milhão de denúncias após receberem avisos de segurança na plataforma.

Essas medidas integram um esforço mais amplo da Meta para proteger crianças e adolescentes, diante da pressão crescente de legisladores que acusam a empresa de negligenciar a segurança dos usuários jovens contra exploração sexual.

No início deste ano, a Meta removeu aproximadamente 135 mil contas no Instagram que compartilhavam conteúdo sexualizado envolvendo crianças, incluindo perfis que faziam comentários inapropriados ou solicitavam imagens sexuais de menores por meio de contas gerenciadas por adultos.

Além disso, outras 500 mil contas vinculadas a esses perfis foram removidas tanto no Instagram quanto no Facebook.

Agora, as contas que representam adolescentes e crianças são automaticamente configuradas com restrições mais rígidas, filtrando mensagens ofensivas e limitando interações com contas desconhecidas.

Embora o Instagram exija que os usuários tenham ao menos 13 anos, adultos podem criar contas em nome de menores, desde que isso fique claro na biografia do perfil.

A Meta também enfrenta críticas por implementar recursos em seus aplicativos que podem causar vício e impactar negativamente a saúde mental das crianças, alvo de processos por vários procuradores-gerais estaduais.

Em outra ação recente, a empresa informou ter removido cerca de 10 milhões de perfis que se passavam por grandes criadores de conteúdo até o primeiro semestre de 2025, em uma tentativa de combater conteúdos considerados spam.

No âmbito regulatório, o Congresso dos EUA tem retomado discussões para impor normas mais rigorosas sobre segurança infantil nas redes sociais. A Lei de Segurança Online para Crianças foi reapresentada em maio, propondo um “dever de cuidado” para evitar danos causados por essas plataformas.

Por fim, o Snapchat foi alvo de um processo judicial no Novo México, acusado de criar um ambiente onde predadores facilmente acessam crianças para práticas de sextorsão.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo