IA e Guerra: a urgência de definir limites

10 de Março, 2026

O recente conflito público entre a Anthropic e a administração de Donald Trump culminou na decisão de afastar a empresa de contratos federais e no subsequente acordo do Pentágono com a OpenAI. Este não é apenas um episódio sobre um desacordo contratual, mas sim algo maior, o que reflete uma clara tensão estrutural entre inovação tecnológica, poder soberano e responsabilidade democrática.

A preocupação da Anthropic reside essencialmente na aplicação da IA (para fins militares) em dois pontos críticos: 1) armas autónomas e 2) vigilância em massa. 

Os sistemas de armas com elevado grau de autonomia representam um ponto de inflexão na história da guerra. Ao contrário de tecnologias anteriores, a IA não se limita a ampliar a capacidade humana; pode, em determinadas configurações, assumir funções de identificação de alvos e tomada de decisão operacional.

Ainda que, muitos projetos mantenham formalmente o princípio da supervisão humana, a própria evolução técnica aponta para cenários de delegação crescente. A questão central deixa de ser apenas operacional e passa a ser normativa: quem responde por decisões tomadas por sistemas algorítmicos em contexto letal? Como se assegura proporcionalidade, distinção e conformidade com o direito internacional humanitário quando o processo decisório é mediado por modelos probabilísticos?

Paralelamente, a integração de modelos avançados de IA em sistemas de análise de dados governamentais abre possibilidades inéditas de monitorização e correlação de informação. A capacidade de cruzar grandes volumes de dados pode reforçar instrumentos de prevenção e investigação. Contudo, a mesma tecnologia pode também amplificar riscos para direitos fundamentais, nomeadamente, de privacidade e liberdade de expressão.

Aqui entra também o papel das empresas privadas. A infraestrutura tecnológica que sustenta os atuais modelos de IA está concentrada num número reduzido de organizações, e estas entidades não desenvolvem apenas a tecnologia; podem também definir limites técnicos, estabelecer políticas de utilização e condicionar, ou não, o leque de aplicações possíveis.

Durante anos, as grandes tecnológicas cultivaram a narrativa da neutralidade: “não decidimos como é usado”. Esse argumento evaporou quando os seus modelos passaram a integrar redes classificadas, cadeias de decisão militar e sistemas de análise de Intelligence. 

Hoje, as empresas não são meras fornecedoras, são coarquitectas do poder. Tal implica responsabilidade, não apenas legal, mas moral. Porque quando um governo exige linguagem contratual que permita qualquer utilização “legal”, a empresa tem duas opções: ou confia que o enquadramento político será sempre razoável ou, assume que a ética não pode depender somente da letra da lei.

A Anthropic escolheu a segunda via. E essa escolha, concorde-se ou não com a empresa, estabelece um precedente importante: as empresas de IA podem, e talvez devam, impor limites técnicos e contratuais ao uso da sua tecnologia, mesmo perante Estados soberanos. Em jogo não está apenas a vantagem estratégica ou a competitividade tecnológica. Está sim, a preservação de princípios fundamentais que sustentam as sociedades democráticas.

Bruno Castro é Fundador & CEO da VisionWare. Especialista em Cibersegurança e Análise Forense.

Opinião