Disputa entre Anthropic e o Pentágono levanta questões para a estratégia europeia de inteligência artificial

O conflito judicial entre a empresa de inteligência artificial Anthropic e o Departamento de Defesa dos Estados Unidos não é apenas um episódio da política tecnológica norte-americana. A disputa expõe uma tensão crescente entre governos e fornecedores de tecnologia sobre os limites do uso da inteligência artificial em segurança e defesa. Para decisores europeus de tecnologia, o caso levanta questões diretas sobre regulação, autonomia estratégica e dependência tecnológica.
9 de Março, 2026

A decisão da Anthropic de recorrer aos tribunais para contestar a classificação como risco na cadeia de fornecimento imposta pelo Departamento de Defesa dos Estados Unidos pode vir a ter repercussões muito além do mercado norte-americano. O caso coloca em evidência um conflito estrutural entre empresas tecnológicas que definem limites para o uso da sua inteligência artificial e governos que exigem liberdade operacional para aplicações de segurança nacional.

O Pentágono decidiu aplicar essa designação depois de a empresa recusar remover restrições técnicas do seu modelo de inteligência artificial, Claude. Essas salvaguardas impedem que o sistema seja utilizado em armas totalmente autónomas ou em sistemas de vigilância doméstica.

A Anthropic defende que os atuais modelos de inteligência artificial ainda não são suficientemente fiáveis para controlar sistemas de armamento autónomos, considerando que a utilização dessa tecnologia nesse contexto pode representar riscos técnicos e operacionais.

A decisão do Departamento de Defesa surgiu após vários meses de negociações entre a empresa e o governo norte-americano sobre a forma como a tecnologia poderia ser utilizada em operações militares. A medida limita o uso da tecnologia da empresa em contratos associados ao Pentágono e poderá afetar o seu relacionamento com agências federais.

Embora o litígio esteja concentrado nos Estados Unidos, o caso surge num momento particularmente sensível para a política tecnológica europeia.

Um teste para o modelo regulatório europeu

A União Europeia tem vindo a construir um quadro regulatório específico para a inteligência artificial. O chamado AI Act, aprovado pela União Europeia em 2024, estabelece regras baseadas no nível de risco das aplicações de IA e inclui restrições claras a sistemas considerados de alto risco.

Entre as áreas sensíveis discutidas no processo legislativo estiveram precisamente os sistemas de vigilância e as aplicações de segurança pública, temas que também estão no centro do conflito entre a Anthropic e o Pentágono.

A posição da empresa norte-americana, ao recusar permitir determinados usos da sua tecnologia, aproxima-se em vários aspetos da lógica regulatória europeia, que procura limitar aplicações consideradas intrusivas ou potencialmente perigosas.

Para organizações europeias, especialmente empresas e entidades públicas que adotam tecnologias de inteligência artificial desenvolvidas nos Estados Unidos, o caso expõe um risco operacional pouco discutido: a possibilidade de decisões políticas em Washington condicionarem a disponibilidade ou o uso de plataformas tecnológicas críticas.

Dependência tecnológica e autonomia estratégica

O episódio também reabre um debate que já se tornou central em Bruxelas: a dependência europeia de tecnologia desenvolvida fora do continente.

Nos últimos anos, a Comissão Europeia tem defendido a necessidade de reforçar a chamada autonomia estratégica digital, conceito que envolve reduzir a dependência de fornecedores estrangeiros em áreas consideradas críticas, como cloud, semicondutores e inteligência artificial.

A eventual restrição ao uso de um sistema de IA por decisão do governo norte-americano demonstra como plataformas tecnológicas podem tornar-se instrumentos de política geoestratégica.

Este risco é particularmente relevante para organizações que utilizam modelos de inteligência artificial através de plataformas cloud, onde o controlo da infraestrutura e da tecnologia permanece nas mãos do fornecedor.

A discussão é semelhante à que tem levado às iniciativas europeias de cloud soberana, como os projetos que procuram garantir que dados e infraestruturas críticas permaneçam sob jurisdição europeia.

Consequências para decisões de compra tecnológica

Para responsáveis de tecnologia e decisores de procurement na Europa, o caso levanta uma questão prática. A adoção de plataformas de inteligência artificial não é apenas uma decisão tecnológica, mas também uma decisão estratégica relacionada com dependência de fornecedores e enquadramento regulatório.

Se governos exigirem acesso total a determinadas capacidades tecnológicas por razões de segurança nacional, fornecedores poderão ser pressionados a alterar políticas de utilização ou a adaptar os seus sistemas.

Esta dinâmica poderá criar tensões entre requisitos regulatórios europeus, políticas internas das empresas tecnológicas e exigências de governos estrangeiros.

Ao mesmo tempo, o episódio mostra que o mercado de inteligência artificial está a tornar-se um elemento central da política de defesa.

Nos últimos doze meses, o Departamento de Defesa dos Estados Unidos assinou acordos que podem atingir cerca de 200 milhões de dólares com vários laboratórios de inteligência artificial, incluindo Anthropic, OpenAI e Google.

A integração crescente da inteligência artificial em sistemas militares indica que esta tecnologia está a tornar-se parte da infraestrutura estratégica dos Estados.

Para a Europa, que tem procurado reforçar a cooperação em defesa e investir em capacidades tecnológicas próprias, o caso serve como um alerta.

À medida que a inteligência artificial se torna um componente crítico de sistemas de defesa, segurança e economia digital, a definição de limites entre uso civil, empresarial e militar poderá tornar-se um dos principais desafios regulatórios e estratégicos para governos e empresas nos próximos anos.

Opinião