Pentágono avalia classificar empresa como “risco à cadeia de suprimentos”
O governo dos Estados Unidos, por meio do Pentágono, entrou em conflito direto com a startup de inteligência artificial Anthropic após a empresa se recusar a permitir que seu sistema, o Claude, seja utilizado em operações militares que envolvam mortes ou espionagem de cidadãos.
A tensão escalou a ponto de militares avaliarem classificar a companhia como “risco à cadeia de suprimentos” — um alerta grave, normalmente aplicado a países considerados adversários estratégicos. Caso a medida avance, a Anthropic pode ser impedida de atuar em contratos governamentais.
Contrato bilionário em risco
A disputa ocorre em meio a um contrato estimado em até US$ 200 milhões — mais de R$ 1 bilhão na cotação atual — que permitiria à empresa trabalhar com arquivos confidenciais do governo. O Pentágono também estuda exigir que prestadores de serviço comprovem que não utilizam o Claude em projetos oficiais.
Segundo o Wall Street Journal, o alto funcionário do governo Emil Michael afirmou que ferramentas tecnológicas contratadas pelo Departamento de Defesa não devem impor restrições além do que já está previsto em lei. Diferentemente da Anthropic, empresas como OpenAI e Google teriam aceitado as condições exigidas.
Componente político amplia crise
O embate ganhou contornos políticos ao envolver o governo de Donald Trump. Integrantes da gestão classificam o sistema da empresa como “woke”, em referência às políticas de segurança e posicionamentos considerados progressistas. Um fundo ligado ao filho de Trump teria recusado investir na startup por discordar de suas diretrizes.
Especialistas alertam que enquadrar uma empresa americana como risco estratégico pode atrasar o desenvolvimento tecnológico dos EUA. Já a Anthropic afirma que busca diálogo de boa-fé para resolver o impasse.









0 comentários