Colunistas
Tendência

Brinquedos com Inteligência Artificial: O Cavalo de Troia da Infância Conectada

Por Calza Neto – Advogado de Privacidade, Propriedade Intelectual e Segurança da Informação

Bonecas que conversam, robôs que demonstram empatia e brinquedos que “aprendem” com a criança já não são coisa do futuro — eles estão entre nós. Com aparência inofensiva e um discurso sedutor de inovação educativa, esses dispositivos vêm ocupando um espaço cada vez maior nos quartos infantis. O que antes era apenas brinquedo, hoje é também microfone, câmera, assistente de voz, processador de linguagem e, em alguns casos, um sistema de tomada de decisão autônoma.

Alimentados por tecnologias de inteligência artificial (IA), esses brinquedos são capazes de adaptar falas com base nas respostas da criança, reconhecer emoções, registrar hábitos e até formar perfis de comportamento. Robôs como o Moxie, por exemplo, são projetados para simular relações sociais, com gestos e entonações de voz que imitam o afeto humano. Já assistentes com interface de voz, como a boneca Hello Barbie, mantêm diálogos personalizados que se tornam mais refinados à medida que a interação avança.

Essa capacidade de personalização, que à primeira vista parece educativa, vem acompanhada de uma série de camadas invisíveis — bancos de dados, algoritmos, conexões em nuvem e servidores localizados em outros países. Isso significa que o que a criança fala, faz ou demonstra emocionalmente pode ser registrado, processado e armazenado fora do alcance dos pais, educadores e até mesmo DO Poder Público.

O marketing desses brinquedos costuma destacar os benefícios pedagógicos e emocionais: aprender a contar, desenvolver a fala, lidar com as emoções. Mas o que se esconde por trás dessa proposta lúdica é uma complexa estrutura de tecnologia, coleta de dados e influência comportamental que levanta sérias preocupações sobre a exposição precoce à vigilância, à manipulação algorítmica e ao consumo orientado por perfis digitais.

Privacidade, saúde emocional e até mesmo segurança física são colocadas em xeque quando esses dispositivos, conectados e autônomos, operam livremente no ambiente íntimo das famílias. E o mais alarmante: tudo isso acontece muitas vezes sem que os pais tenham plena consciência do que está em jogo.

Muito além do entretenimento: a IA já entrou no quarto das crianças

Como dito acima, os brinquedos com IA embarcada utilizam algoritmos para identificar emoções, adaptar interações e aprender com os comportamentos da criança. Alguns, como o robô e a boneca citados, mantêm conversas personalizadas e reagem afetivamente — o que, à primeira vista, parece revolucionário.

Entretanto, cada interação é uma oportunidade para coleta de dados sensíveis — vozes, imagens, preferências, reações emocionais e rotinas do lar. Muitos desses dados são processados por sistemas automatizados fora do Brasil, sem garantias reais de proteção conforme as exigências da LGPD.

 O que dizem os estudos: impactos profundos no desenvolvimento infantil

A literatura científica e os dados empíricos já alertam para riscos concretos:

  • Privacidade e segurança digital: brinquedos com IA foram alvos de ataques cibernéticos, com casos de controle remoto de voz por terceiros, vazamento de interações gravadas e dispositivos conectados a redes Wi-Fi vulneráveis¹.
  • Saúde emocional: pesquisas apontam que crianças tendem a formar vínculos afetivos com assistentes virtuais e brinquedos interativos. Um estudo escocês mostrou que crianças entre 6 e 11 anos acreditam que a Alexa “sente” emoções². Isso pode levar à confusão entre o real e o digital, além de criar dependência emocional.
  • Respostas perigosas: testes realizados com chatbots infantis revelaram que cerca de 30% das respostas simuladas por IA encorajavam comportamentos de risco, como automutilação e agressividade³.
  • Aprendizado superficial: especialistas alertam que, sem regulação pedagógica, a IA pode promover respostas automáticas que inibem o pensamento crítico, incentivam o plágio e desestimulam a resolução de problemas de forma autônoma⁴.
  • Vieses e manipulação comercial: brinquedos inteligentes podem moldar gostos, repetir estereótipos e promover marcas. Em alguns casos, algoritmos foram flagrados gerando respostas racistas ou sexistas sem supervisão adequada⁵.

O que precisa ser feito?

  • Responsabilidade das empresas: adotar o “privacy by design”, com coleta mínima de dados, clareza nas finalidades e ausência de perfilamento publicitário infantil.
  • Ação do poder público: criação de um marco legal que una ANPD, MEC, CONANDA, SENACON e agências reguladoras para fiscalizar e limitar o uso de IA com o público infantil.
  • Protagonismo das famílias: pais e responsáveis devem ser protagonistas na escolha dos brinquedos, compreender os riscos, ler os termos de uso e dialogar com as crianças sobre tecnologia e privacidade.
  • Educação digital nas escolas: é urgente a inclusão de temas como cidadania digital, algoritmos, inteligência artificial e proteção de dados no currículo escolar, em linguagem acessível e com apoio técnico.

Conclusão

A inteligência artificial pode, e deve, ser uma aliada da educação, da criatividade e do desenvolvimento infantil. Mas essa aliança só é válida quando construída sobre os pilares da responsabilidade, da transparência e da proteção integral. Quando implantada sem critérios, vigilância ou regulação adequada, a IA embarcada em brinquedos deixa de ser ferramenta e passa a ser ameaça.

Hoje, brinquedos com inteligência artificial representam um risco real,  e frequentemente subestimado. São apresentados como recursos inovadores, interativos e educativos. Mas, em muitos casos, agem como verdadeiros “Cavalos de Troia digitais”: cativam pelo visual e pelas funcionalidades, enquanto operam silenciosamente a coleta de dados, o condicionamento comportamental e a manipulação emocional de crianças ainda em formação.

Essa realidade é incompatível com o que determina a Constituição Federal brasileira, que estabelece, no artigo 227, que é dever da família, da sociedade e do Estado assegurar “com absoluta prioridade” os direitos das crianças e adolescentes, colocando-os a salvo de toda forma de negligência, exploração, violência e opressão. Não se trata de uma faculdade, mas de uma obrigação constitucional.

O Estatuto da Criança e do Adolescente (ECA) reforça essa proteção ao dispor, no artigo 17, que o direito ao respeito inclui a inviolabilidade da integridade física, psíquica e moral da criança, abrangendo sua imagem, identidade e autonomia. Isso abrange também o uso indevido de seus dados e o monitoramento não consentido de sua intimidade, especialmente quando promovido por dispositivos lúdicos.

O próprio Conselho Nacional dos Direitos da Criança e do Adolescente (CONANDA) já emitiu diversas resoluções que tratam de temas diretamente ligados à tecnologia e ao consumo. A Resolução nº 163/2014 classifica como abusiva toda a comunicação mercadológica direcionada ao público infantil. Isso inclui a coleta e uso de dados para personalizar interações com o intuito de estimular o consumo, promover marcas ou manipular desejos e percepções, prática comum em brinquedos com IA. Já a Resolução nº 231/2022 recomenda explicitamente a inclusão de cidadania digital e proteção de dados nos currículos escolares, reconhecendo a urgência de preparar as crianças para os riscos do mundo digital.

Em suma, a proteção da infância digital não é apenas uma questão técnica ou educacional. É um imperativo jurídico e constitucional. O tempo da inocência digital acabou. Se queremos proteger verdadeiramente o futuro, precisamos agir no presente com fiscalização, informação e responsabilidade compartilhada entre o Estado, as empresas e as famílias.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo