O recente incidente que envolveu a Deloitte na Austrália levanta uma questão incontornável para as autoridades portuguesas: estamos preparados para lidar com o uso da inteligência artificial em relatórios e estudos encomendados pelo Estado? A resposta, à luz do que se passou do outro lado do mundo, não é reconfortante.
Na Austrália, a Deloitte admitiu ter usado um modelo de linguagem generativa — Azure OpenAI GPT-4o — para preencher lacunas de análise e documentação num relatório do Departamento do Emprego e Relações Laborais (DEWR). O documento, que custou 440 mil dólares australianos, destinava-se a avaliar o Targeted Compliance Framework, o sistema digital governamental de controlo e penalização de beneficiários de apoios sociais.
O problema é que o relatório estava repleto de citações falsas, notas de rodapé inventadas e até uma passagem forjada de um acórdão do Tribunal Federal. Confrontada com a descoberta, feita por um académico da Universidade de Sydney, a consultora foi obrigada a devolver parte do contrato e republicar o documento, expurgado de referências inexistentes.
O caso ganhou proporções internacionais porque expôs uma contradição difícil de ignorar: uma das maiores consultoras do mundo, que vende formação em “IA responsável” a governos e empresas, recorreu à mesma tecnologia de forma pouco transparente num trabalho oficial. A revelação, incluída discretamente na nova versão do relatório, confirmou que a IA tinha sido usada em tarefas analíticas e não apenas de apoio documental, sem qualquer aviso prévio ao cliente.
Para o académico que denunciou o erro, o problema não está apenas nas “alucinações” típicas da IA generativa, mas na falta de supervisão humana qualificada e na confiança cega depositada em algoritmos para realizar tarefas que exigem rigor técnico e jurídico.
Em Portugal, onde a digitalização da Administração Pública avança rapidamente e o recurso a grandes consultoras internacionais é prática corrente, o episódio australiano deve ser lido como uma advertência. Cada vez mais, contratos públicos envolvem relatórios estratégicos, diagnósticos de transformação digital ou auditorias tecnológicas em que as ferramentas de IA podem vir a ser usadas sem o escrutínio devido.
O argumento da eficiência — menos tempo, menos custos — pode ser sedutor. Mas, como demonstrou a Deloitte, a pressa em adotar soluções automatizadas sem validação crítica pode comprometer a credibilidade das políticas públicas. Um relatório governamental com citações inventadas, ainda que involuntariamente, mina a confiança nas instituições e fragiliza o próprio processo de decisão política.
Em países que pretendem afirmar-se como destinos digitais, como Portugal, a questão da confiança é ainda mais central. O país tem vantagens estruturais — estabilidade política, energia renovável e localização geográfica — que o tornam atrativo para data centers e serviços tecnológicos. Contudo, falta uma estratégia clara para garantir que a adoção de IA, em particular em contratos públicos, decorre dentro de padrões éticos, verificáveis e auditáveis.
O que Portugal deve aprender
O episódio australiano mostra que a responsabilidade digital não se limita às empresas tecnológicas. Estende-se a quem contrata, supervisiona e aprova relatórios, pareceres ou auditorias produzidos com o apoio de ferramentas automatizadas. Se as entidades públicas não exigirem transparência sobre o uso de IA e mecanismos de validação humana, arriscam-se a aprovar documentos cujas conclusões foram, literalmente, escritas por máquinas.
Portugal, que se orgulha de apostar na inteligência artificial como motor de crescimento económico, precisa de aplicar à própria Administração as mesmas regras de governança digital que exige às empresas privadas. O caso Deloitte é um lembrete de que a tecnologia não substitui o juízo crítico, e que a automatização da análise — por mais sofisticada que seja — não elimina a responsabilidade de quem toma decisões em nome do interesse público.
Em última instância, o incidente australiano mostra que a confiança não é um algoritmo: constrói-se com transparência, supervisão e competência humana. Se as autoridades portuguesas não aprenderem com este episódio, a próxima história poderá não vir de Canberra, mas de Lisboa.

