Um tribunal federal de Washington manteve nessa quarta-feira (8) a proibição do uso da Anthropic no Pentágono em um revés para a empresa de inteligência artificial.
A decisão, consultada pela AFP, mantém em vigor uma medida governamental que exige que os subcontratados do Pentágono certifiquem-se que não utilizam tecnologias desenvolvidas pela Anthropic, criadora do chatbot Claude.
Essa ordem, que designou a empresa como “um risco para a cadeia de suprimentos” do Pentágono, foi emitida em 27 de fevereiro em resposta à recusa da empresa em permitir que sua IA seja utilizada para vigilância em massa de cidadãos norte-americanos e para o desenvolvimento de armas totalmente autônomas.
Os três juízes consideraram que os interesses pendiam a favor do governo. Embora a Anthropic “sofra um dano irreparável”, esta medida é “principalmente financeira”, indicaram.
Já para o governo, afeta a segurança das operações do Pentágono “no contexto de um conflito militar ativo”.
O tribunal sugeriu que a empresa também poderia ter obtido um benefício, e citou declarações do CEO, Dario Amodei, aos seus funcionários: “O grande público e a mídia nos veem como heróis (somos o número 2 na App Store!)”.
Em 26 de março, em uma decisão diferente, a Anthropic havia obtido uma primeira vitória contra uma sanção similar.
Uma juíza de San Francisco suspendeu a ordem do secretário de Defesa, Pete Hegseth, que designou a Anthropic como “um risco” para as operações classificadas do Pentágono.
Também suspendeu uma diretiva do presidente Donald Trump com a qual ordenou a todas as agências federais que cessassem o uso das tecnologias da Anthropic.
O governo apelou da decisão. O tribunal federal de apelações de Washington aceitou examinar o mérito do caso e marcou a audiência para 19 de maio.
Autor: Folha




















