China propõe novas regras para regular IAs com interação emocional e comportamento semelhante ao humano
- Cyber Security Brazil
- há 2 horas
- 2 min de leitura

O governo da China avançou mais um passo no controle do uso de inteligência artificial voltada ao público, ao divulgar um conjunto de regras preliminares que ampliam a supervisão sobre sistemas de IA capazes de simular personalidades humanas e interagir emocionalmente com usuários. As diretrizes foram publicadas pelo órgão regulador cibernético do país para consulta pública, reforçando a estratégia de Pequim de moldar o desenvolvimento da IA com foco em segurança, ética e controle social.
As regras se aplicam a produtos e serviços de IA disponíveis ao público chinês que apresentem características como traços de personalidade simulados, padrões de pensamento e estilos de comunicação humanos, além de interação emocional por meio de texto, imagem, áudio ou vídeo. A proposta deixa claro que o avanço da IA conversacional e “empática” passa a ser tratado como um tema sensível de saúde mental e estabilidade social.
Alerta contra uso excessivo e dependência emocional
Um dos pontos centrais do texto é a exigência de que as empresas alertem os usuários sobre o uso excessivo dessas tecnologias. Caso sejam detectados sinais de dependência, comportamento compulsivo ou vício, os provedores deverão intervir ativamente.
Segundo o rascunho, as empresas precisarão assumir responsabilidade de segurança durante todo o ciclo de vida do produto, implementando sistemas formais de revisão de algoritmos, proteção de dados e salvaguardas de informações pessoais. A abordagem reforça o modelo regulatório chinês, que responsabiliza diretamente os provedores pelos impactos sociais de suas tecnologias.
Monitoramento do estado emocional dos usuários
As regras também abordam riscos psicológicos associados ao uso prolongado de IAs com interação emocional. Os provedores deverão ser capazes de identificar o estado emocional dos usuários, avaliar níveis de dependência e reconhecer sinais de emoções extremas ou comportamentos aditivos.
Caso esses sinais sejam detectados, o texto exige que as plataformas adotem medidas corretivas, embora não detalhe exatamente quais ações seriam consideradas aceitáveis. Esse ponto deve gerar debates durante a consulta pública, especialmente sobre privacidade, consentimento e limites do monitoramento emocional.
Linhas vermelhas para conteúdo e comportamento
Assim como em outras regulações chinesas, o projeto estabelece linhas vermelhas claras para o conteúdo gerado pelas IAs. Os sistemas não poderão produzir materiais que ameacem a segurança nacional, espalhem rumores, promovam violência ou conteúdos obscenos.
O movimento reforça a visão do governo chinês de que a IA não é apenas uma tecnologia comercial, mas um instrumento com impacto direto no comportamento humano, exigindo controles rigorosos antes de sua adoção em larga escala.



