IA & InovaçãoNews
Tendência

China quer limitar chatbots de IA para evitar impactos emocionais e riscos à saúde mental

Projeto de lei propõe regras inéditas para IA antropomórfica, com foco em prevenção ao suicídio, proteção de menores e segurança emocional dos usuários

A China estuda impor restrições ao uso de chatbots com inteligência artificial com o objetivo de impedir que essas tecnologias influenciem emoções humanas de forma prejudicial, podendo levar a casos de suicídio ou automutilação. A iniciativa consta em um projeto de regulamentação divulgado neste sábado pelas autoridades do país.

As propostas foram apresentadas pela Administração do Ciberespaço da China e têm como alvo os chamados “serviços interativos de IA com características humanas”, segundo tradução da CNBC do texto original em chinês.

Se aprovadas, as regras passarão a valer para produtos e serviços de inteligência artificial disponibilizados ao público chinês que simulam comportamentos, personalidades ou vínculos emocionais humanos por meio de textos, imagens, áudios ou vídeos. O período de consulta pública segue aberto até 25 de janeiro.

De acordo com Winston Ma, professor adjunto da Faculdade de Direito da Universidade de Nova York (NYU), a iniciativa pode representar a primeira tentativa global de regular sistemas de IA com traços antropomórficos. A proposta surge em um momento de rápida expansão de assistentes virtuais e influenciadores digitais desenvolvidos por empresas chinesas.

Em comparação às normas voltadas à IA generativa lançadas em 2023, Ma avalia que o novo texto “avança da segurança do conteúdo para a segurança emocional”, ampliando o escopo da regulamentação.

O projeto estabelece que:

  • Chatbots de IA ficam proibidos de produzir conteúdos que incentivem suicídio ou automutilação, bem como práticas de violência verbal ou manipulação emocional que afetem a saúde mental dos usuários.

  • Caso um usuário manifeste explicitamente intenção de tirar a própria vida, a empresa responsável deverá transferir a conversa para um atendente humano e avisar imediatamente o responsável legal ou uma pessoa indicada.

  • Sistemas de IA não poderão gerar materiais relacionados a jogos de azar, pornografia ou violência.

  • Menores de idade só poderão utilizar IA voltada à companhia emocional mediante autorização de um responsável, além de estarem sujeitos a limites de tempo de uso.

  • As plataformas deverão identificar se o usuário é menor, mesmo sem declaração direta de idade, aplicando automaticamente configurações de proteção quando houver dúvida, com possibilidade de contestação.

Outras exigências incluem o envio de alertas após duas horas seguidas de interação com chatbots e a obrigatoriedade de avaliações de segurança para serviços com mais de 1 milhão de usuários cadastrados ou ao menos 100 mil usuários ativos mensais.

O documento também destaca o potencial positivo da IA com características humanas em áreas como a promoção cultural e o apoio a idosos.

IPOs de chatbots de IA na China

A proposta regulatória foi apresentada pouco depois de duas startups chinesas de destaque no setor, Z.ai e Minimax, entrarem com pedidos de abertura de capital (IPO) em Hong Kong neste mês.

A Minimax ganhou projeção internacional com o aplicativo Talkie AI, que permite interações com personagens virtuais. O app e sua versão chinesa, Xingye, responderam por mais de um terço da receita da empresa nos três primeiros trimestres do ano, somando uma média superior a 20 milhões de usuários ativos mensais no período.

Já a Z.ai, também conhecida como Zhipu, registrou-se oficialmente como “Knowledge Atlas Technology”. Embora não divulgue números de usuários ativos, a empresa afirma que sua tecnologia está integrada a cerca de 80 milhões de dispositivos, incluindo smartphones, computadores e veículos inteligentes.

Fonte: CNBC

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo