EUA propõem novo marco regulatório para Inteligência Artificial com foco em inovação, segurança e liberdade de expressão
- Cyber Security Brazil
- há 17 horas
- 3 min de leitura

Casa Branca apresentou, em março de 2026, um novo conjunto de recomendações legislativas que visam estabelecer um marco nacional para o uso e desenvolvimento da Inteligência Artificial (IA) nos Estados Unidos. O documento, intitulado National Policy Framework for Artificial Intelligence, traz diretrizes estratégicas que buscam equilibrar inovação tecnológica, proteção de direitos e competitividade global.
A proposta parte do princípio de que a IA deve impulsionar o crescimento econômico e a liderança global dos Estados Unidos, ao mesmo tempo em que estabelece salvaguardas para mitigar riscos sociais, econômicos e de segurança nacional. Entre os pilares centrais do documento estão a proteção de crianças, a defesa da liberdade de expressão, o incentivo à inovação e a criação de uma força de trabalho preparada para a economia baseada em IA.
Um dos principais focos da proposta é a proteção de crianças e adolescentes no ambiente digital. O governo recomenda que plataformas de IA implementem mecanismos robustos de controle parental, além de medidas para reduzir riscos como exploração sexual e exposição a conteúdos prejudiciais. Também está prevista a criação de requisitos de verificação de idade e restrições no uso de dados de menores para treinamento de modelos e publicidade direcionada.
Outro ponto relevante é o fortalecimento das comunidades e da economia local. O documento sugere incentivos financeiros, como subsídios e benefícios fiscais, para ampliar o uso de IA em pequenas empresas. Ao mesmo tempo, há preocupação com os impactos da expansão de data centers, especialmente em relação ao consumo de energia, propondo que os custos não sejam repassados à população.
No campo da segurança, o governo destaca a necessidade de ampliar a capacidade técnica de órgãos nacionais para compreender e mitigar riscos associados a modelos avançados de IA. Também há ênfase no combate a fraudes e golpes que utilizam IA, como esquemas de impersonação — uma ameaça crescente que tem impactado principalmente idosos e populações vulneráveis.
A proposta também aborda direitos autorais e proteção de criadores, um dos temas mais sensíveis no avanço da IA. O documento reconhece a controvérsia sobre o uso de conteúdos protegidos no treinamento de modelos e sugere que essa questão seja resolvida pelo Judiciário. Além disso, recomenda a criação de mecanismos que protejam indivíduos contra o uso não autorizado de sua imagem, voz ou identidade em conteúdos gerados por IA, mantendo exceções para usos legítimos como jornalismo e sátira.
Outro destaque é a defesa da liberdade de expressão, com a recomendação de impedir que o governo pressione empresas de tecnologia a censurar conteúdos por razões políticas ou ideológicas. A proposta também sugere mecanismos para que cidadãos possam contestar eventuais práticas de censura em plataformas de IA.
No campo da inovação, o documento propõe a criação de “sandboxes regulatórios”, ambientes controlados onde empresas podem testar soluções de IA com menor carga regulatória. Além disso, incentiva a disponibilização de dados públicos em formatos adequados para treinamento de modelos, fortalecendo o ecossistema de pesquisa e desenvolvimento.
Por fim, o plano defende a criação de um padrão federal unificado, evitando um cenário fragmentado com diferentes leis estaduais. A ideia é garantir consistência regulatória, ao mesmo tempo em que preserva a autonomia dos estados em áreas específicas, como proteção ao consumidor e uso governamental da IA.
A proposta também destaca a importância da capacitação da força de trabalho, incentivando a inclusão de IA em programas educacionais, treinamentos técnicos e iniciativas de requalificação profissional. O objetivo é garantir que os trabalhadores não apenas convivam com a IA, mas se beneficiem diretamente dela.