AI local ganha nova via com proposta da AWS

O novo serviço AI Factories pretende dar resposta ao conflito entre a necessidade de manter dados dentro de fronteiras e a procura por infraestruturas de IA com escala semelhante à da cloud. A AWS passa a disponibilizar equipamento e software dedicados diretamente no data center do cliente, aproximando o modelo cloud das exigências de soberania.
6 de Dezembro, 2025
Imagem AWS

A pressão para adotar inteligência artificial tem colocado muitas organizações perante um impasse. Ou investem em infraestrutura própria com custos elevados, ou enfrentam limitações quando recorrem à nuvem pública devido a regras de soberania e conformidade. A AWS apresentou em Las Vegas no re:Invent 2025 uma alternativa destinada a mitigar este dilema: AI Factories, uma infraestrutura de IA gerida pela própria empresa, mas instalada no data center do cliente.

Segundo a AWS, o objetivo é oferecer um modelo semelhante ao já conhecido Outposts, mas orientado para cargas de trabalho de IA. A empresa disponibiliza hardware e software dedicados diretamente nas instalações do cliente, permitindo executar aplicações de inteligência artificial sem violar requisitos locais de tratamento e permanência de dados. A AWS descreve esta solução como uma espécie de região privada, que aproveita o espaço, a energia e o sistema de arrefecimento já existentes, mas mantém a elasticidade típica da cloud.

O novo serviço integra GPUs de última geração da Nvidia, processadores Trainium desenvolvidos pela AWS, redes de alto desempenho e serviços de software como SageMaker e Bedrock. A empresa sublinha que este conjunto permite operar projetos de IA com características equivalentes às disponibilizadas na nuvem pública, mas respeitando as limitações impostas por normas de soberania.

O lançamento da AWS surge num contexto de forte competição. Vários fornecedores já oferecem aceleradores de IA on-premises em regime de serviço gerido. A Oracle incluiu processadores Nvidia na oferta Cloud Customer no início do ano, a Microsoft anunciou suporte semelhante no Azure Local em novembro, e a Google integrou GPU na Distributed Cloud. Mesmo a própria AWS já disponibilizava GPUs Nvidia nos Outposts, embora com níveis de desempenho mais limitados.

Neste cenário, o AI Factories entra diretamente numa disputa com propostas como o AI Factory da Nvidia, as arquiteturas de IA da Dell e o Private Cloud for AI da HPE, todas fortemente ancoradas no ecossistema Nvidia e orientadas para se tornarem plataformas on-premises de referência.

Opinião