Segundo a Reuters, a Microsoft apresentou num tribunal federal de São Francisco um documento de apoio ao processo judicial iniciado pela Anthropic contra o Departamento de Defesa dos Estados Unidos (DoD). A tecnológica pede ao tribunal que suspenda temporariamente a decisão do Pentágono que classificou a empresa de inteligência artificial como risco para a cadeia de fornecimento.
Este tipo de intervenção judicial, conhecido como amicus brief, permite que entidades externas ao processo apresentem argumentos que possam ajudar o tribunal a avaliar o caso. No documento entregue na terça-feira, a Microsoft defende que a decisão do Pentágono deve ser pausada enquanto a justiça analisa a contestação apresentada pela Anthropic.
A disputa começou no início da semana, quando a empresa responsável pelo modelo de inteligência artificial Claude avançou com um processo judicial para impedir que o Departamento de Defesa a inclua numa lista negra associada a preocupações de segurança nacional. O caso representa um confronto direto entre uma das startups mais relevantes da atual geração de empresas de IA e o aparelho militar norte-americano sobre os limites de utilização desta tecnologia.
Para a Microsoft, a decisão do Pentágono tem implicações diretas no seu próprio negócio. A empresa integra produtos e serviços desenvolvidos pela Anthropic em soluções tecnológicas fornecidas ao exército dos Estados Unidos. Segundo a tecnológica, a classificação da Anthropic como risco de segurança pode obrigar fornecedores e contratantes do governo a alterar rapidamente plataformas e serviços que dependem desta tecnologia.
No documento, citado pela Reuters, entregue ao tribunal, a empresa argumenta que essa mudança poderia provocar perturbações operacionais e custos adicionais para vários intervenientes da cadeia de fornecimento tecnológica ligada ao setor da defesa. Sem uma suspensão temporária da decisão, fornecedores com experiência no desenvolvimento de soluções para missões governamentais teriam de incorporar este novo risco nos seus planos de negócio.
A Microsoft acrescenta ainda que o Pentágono estabeleceu um período de seis meses para eliminar gradualmente a utilização da tecnologia da Anthropic nas suas próprias operações. Contudo, de acordo com a empresa, esse prazo de transição não foi aplicado aos contratantes externos que utilizam os produtos da startup para cumprir contratos com o Departamento de Defesa.
Na perspetiva da tecnológica, a aplicação imediata da medida pode obrigar esses fornecedores a reconstruir rapidamente soluções tecnológicas que dependem das ferramentas da Anthropic.
A empresa defende que uma ordem judicial temporária permitiria ganhar tempo para negociar uma solução. Ao mesmo tempo, argumenta que essa pausa ajudaria a garantir que o acesso a tecnologias avançadas de inteligência artificial não é interrompido abruptamente, mantendo salvaguardas relacionadas com o uso responsável destas ferramentas, nomeadamente no que respeita à vigilância interna em larga escala ou à tomada automática de decisões militares sem controlo humano.
O debate em torno da decisão do Pentágono não se limita às empresas envolvidas. Um grupo de 37 investigadores e engenheiros ligados à OpenAI e à Google também apresentou um documento de apoio à posição da Anthropic, sinalizando preocupação dentro da própria comunidade técnica de inteligência artificial.
O tribunal terá agora de decidir se aceita formalmente a intervenção da Microsoft no processo. Este tipo de participação de terceiros é relativamente comum em casos considerados relevantes para setores estratégicos, especialmente quando as decisões judiciais podem ter impacto alargado em cadeias industriais inteiras.
Para o setor tecnológico que trabalha com contratos públicos, e em particular para os fornecedores ligados à defesa, o caso poderá tornar-se um precedente relevante sobre a forma como governos classificam e restringem tecnologias emergentes de inteligência artificial.






