Antrópico processa rótulo de ‘risco da cadeia de suprimentos’ do Pentágono: ‘Sem precedentes’ – Nacional

A Anthropic está a processar a administração Trump, pedindo aos tribunais federais que revertam a decisão do Pentágono que designou a empresa de inteligência artificial como um “risco da cadeia de abastecimento” devido à sua recusa em permitir o uso militar irrestrito da sua tecnologia.
A Anthropic entrou com duas ações judiciais separadas na segunda-feira, uma no tribunal federal da Califórnia e outra no tribunal federal de apelações em Washington, DC, cada uma desafiando diferentes aspectos das ações do Pentágono contra a empresa.
O Pentágono Na semana passada, designou formalmente a empresa de tecnologia de São Francisco como um risco na cadeia de suprimentos, após uma disputa pública incomum sobre como seu IA o chatbot Claude poderia ser usado na guerra.
“Essas ações são sem precedentes e ilegais”, diz o processo da Antrópico. “A Constituição não permite que o governo exerça seu enorme poder para punir uma empresa por seu discurso protegido. Nenhum estatuto federal autoriza as ações tomadas aqui. A Anthropic recorre ao Judiciário como último recurso para reivindicar seus direitos e deter a campanha ilegal de retaliação do Executivo.”
Antrópico vs Pentágono: Por que a empresa de IA está reagindo à administração Trump
O Departamento de Defesa se recusou a comentar na segunda-feira, citando uma política de não comentar assuntos em litígio.
Receba notícias nacionais diárias
Receba as principais notícias, manchetes políticas, econômicas e de assuntos atuais do dia, entregues em sua caixa de entrada uma vez por dia.
A Anthropic disse que procurou restringir o uso de sua tecnologia para dois usos de alto nível: vigilância em massa de americanos e armas totalmente autônomas. O secretário de Defesa Pete Hegseth e outros funcionários insistiram publicamente que a empresa deveria aceitar “todos os usos legais” de Claude e ameaçaram puni-la se a Anthropic não cumprisse.
Designar a empresa como um risco na cadeia de suprimentos interrompe o trabalho de defesa da Anthropic usando uma autoridade que foi projetada para evitar que adversários estrangeiros prejudiquem os sistemas de segurança nacional. Foi a primeira vez que se sabe que o governo federal usou a designação contra uma empresa norte-americana.
O presidente Donald Trump também disse que ordenaria às agências federais que parassem de usar Claude, embora tenha dado ao Pentágono seis meses para eliminar gradualmente um produto que está profundamente enraizado em sistemas militares classificados, incluindo aqueles usados na guerra do Irão.
O processo da Antrópico também cita outras agências federais, incluindo os departamentos do Tesouro e do Estado, depois que autoridades ordenaram que os funcionários parassem de usar os serviços da Antrópico.
Questões de negócios: disputas no Pentágono reforçam a reputação da Anthropic e levantam questões sobre o uso de IA na guerra
Ao mesmo tempo que combate as acções do Pentágono, a Anthropic tem procurado convencer as empresas e outras agências governamentais de que a pena da administração Trump é estreita e só afecta os empreiteiros militares quando estes utilizam Claude no trabalho para o Departamento de Defesa.
Deixar clara essa distinção é crucial para a Anthropic, uma empresa privada, porque a maior parte da sua receita projetada de 14 mil milhões de dólares para este ano provém de empresas e agências governamentais que utilizam Claude para codificação informática e outras tarefas. Mais de 500 clientes estão pagando à Anthropic pelo menos US$ 1 milhão anualmente por Claude, de acordo com um recente anúncio de investimento que avaliou a empresa em US$ 380 bilhões.
A Anthropic disse em comunicado na segunda-feira que “buscar revisão judicial não altera nosso compromisso de longa data de aproveitar a IA para proteger nossa segurança nacional, mas esta é uma etapa necessária para proteger nossos negócios, nossos clientes e nossos parceiros”.
© 2026 A Imprensa Canadense




