Pentágono classifica Anthropic como risco estratégico após impasse sobre uso militar de IA
- Cyber Security Brazil
- 28 de fev.
- 2 min de leitura

A startup de inteligência artificial Anthropic reagiu publicamente após o secretário de Defesa dos Estados Unidos, Pete Hegseth, determinar que o Pentágono classificasse a empresa como “risco à cadeia de suprimentos” para a segurança nacional. A medida ocorre após meses de negociações entre a companhia e o Departamento de Defesa (DoD) sobre o uso do modelo de IA Claude em aplicações militares.
Segundo a Anthropic, o impasse foi motivado por duas exceções solicitadas pela empresa nos contratos com o governo norte-americano: a proibição do uso da tecnologia para vigilância doméstica em massa de cidadãos americanos e o desenvolvimento de armas totalmente autônomas. A companhia afirmou que não aceitará flexibilizações que permitam tais aplicações, mesmo sob pressão institucional.
Em publicação na rede Truth Social, o presidente Donald Trump anunciou que todas as agências federais deverão eliminar o uso da tecnologia da Anthropic no prazo de seis meses. Já Hegseth determinou que contratados, fornecedores e parceiros que mantêm negócios com as Forças Armadas dos EUA cessem imediatamente qualquer atividade comercial com a empresa.
A classificação como risco à cadeia de suprimentos foi fundamentada na seção 10 USC 3252 da legislação norte-americana, que permite restringir fornecedores considerados ameaça à segurança nacional. A Anthropic, no entanto, sustenta que a designação seria juridicamente frágil e que, mesmo se mantida, só poderia limitar o uso do Claude em contratos ligados ao Departamento de Defesa — sem afetar clientes privados ou outras áreas do governo.
Em comunicado recente, a empresa defendeu que apoia o uso de IA em missões legais de inteligência e contrainteligência no exterior. Contudo, destacou que a vigilância doméstica em larga escala baseada em IA representaria riscos inéditos às liberdades civis e valores democráticos.
A tensão também envolve divergências sobre as chamadas “restrições de uso” incorporadas aos modelos. Um memorando do Pentágono indica que o Departamento busca modelos livres de limitações que possam restringir aplicações militares consideradas legais.
O documento também afirma que as Forças Armadas não devem empregar modelos com “ajustes ideológicos” que interfiram na entrega de respostas consideradas objetivamente verdadeiras.
O porta-voz do Pentágono, Sean Parnell, afirmou que o Departamento não tem interesse em conduzir vigilância doméstica em massa nem em empregar armas autônomas sem supervisão humana, classificando essa narrativa como falsa. Segundo ele, o pedido feito à Anthropic seria apenas para permitir o uso do modelo para “todas as finalidades legais”.
O embate também polarizou o setor de tecnologia. Centenas de funcionários do Google e da OpenAI assinaram uma carta aberta pedindo que suas empresas apoiem a Anthropic na defesa de limites éticos para o uso militar da IA.
Já Elon Musk, CEO da xAI, manifestou apoio à administração Trump, criticando a postura da Anthropic.
Enquanto isso, o CEO da OpenAI, Sam Altman, afirmou que a empresa firmou um acordo com o Departamento de Defesa para disponibilizar seus modelos em redes classificadas do governo, mantendo princípios como a proibição de vigilância doméstica em massa e a responsabilidade humana no uso da força — inclusive em sistemas autônomos.
O caso evidencia um momento crítico na relação entre grandes empresas de IA e governos, especialmente no que diz respeito ao equilíbrio entre segurança nacional, ética tecnológica e direitos civis. A disputa pode estabelecer precedentes importantes para contratos futuros envolvendo inteligência artificial em ambientes militares.


