IA e a Próxima Fronteira da Inovação, porque a confiança vai definir a oportunidade dos 20 biliões de dólares

A confiança deixa de ser um slogan e passa a ser um requisito operacional, com três pilares muito claros, proveniência de dados, transparência, responsabilização.
26 de Janeiro, 2026

A Inteligência Artificial passou do laboratório para o centro do negócio, e já influencia a forma como as organizações decidem, produzem, servem clientes e competem. A promessa é enorme, as estimativas apontam para um impacto económico muito significativo até 2030, mas a velocidade de adoção traz um problema que ainda recebe pouca atenção, a confiança.

Quando se fala de risco em IA, muitas discussões ficam presas à privacidade, ao viés ou ao uso indevido de dados. São temas relevantes, mas o que hoje mais me preocupa, do ponto de vista da cibersegurança, é uma mudança de paradigma, o ataque deixa de visar apenas código e infraestrutura, e passa a visar significado, contexto e linguagem, exatamente aquilo que os modelos interpretam para produzir respostas e recomendações. 

A cibersegurança, durante décadas, concentrou-se em fortalecer redes, corrigir vulnerabilidades, limitar privilégios, reforçar identidades. Esse trabalho mantém-se essencial, mas as organizações começam a depender de modelos de linguagem em processos críticos, e isso abre uma superfície de ataque nova, mais subtil e mais difícil de detetar. 

Em vez de explorar uma falha técnica num sistema, um atacante pode tentar manipular a interpretação do modelo através de instruções maliciosas escondidas em texto aparentemente normal, em fontes públicas, em documentação, em conteúdos de treino, em inputs de clientes, em repositórios abertos. O resultado pode não ser um “alarme” clássico, pode ser algo bem mais perigoso, uma recomendação ligeiramente enviesada, uma decisão suportada por informação adulterada, uma fuga discreta de conhecimento.

Quando um modelo fica comprometido, o comportamento pode parecer o de um insider, com acesso e legitimidade, mas com intenção alinhada com um terceiro. Continua a responder, a resumir, a analisar, a apoiar equipas, só que passa a fazê-lo com um subtil desalinhamento que quase ninguém questiona. 

Isto muda o foco do risco empresarial, não se trata apenas de proteger dados, trata-se de proteger conhecimento, e de garantir a integridade do que a organização passa a considerar “inteligência” para agir no mercado.

Muitas estratégias de governação de IA começam e acabam na pergunta, quem usa, em que casos, com que permissões. É insuficiente. A pergunta crítica passa a ser, o que é que os modelos ingerem, de onde vem, com que validação, com que rastreabilidade.

A confiança deixa de ser um slogan e passa a ser um requisito operacional, com três pilares muito claros, proveniência de dados, transparência, responsabilização. É também por isso que frameworks internacionais, como as que abordam risco e segurança em IA, têm ganho peso no debate global, e pressionam organizações a alinharem práticas e standards. 

Há um princípio que continua a provar valor, Zero Trust. Não confiar, verificar sempre. Este princípio precisa de se estender à IA, não só ao acesso, mas também às instruções e aos dados que moldam o comportamento dos modelos.

Na prática, isso implica reforço de controlos e de observabilidade ao longo do ciclo de vida da IA, validação de fontes, monitorização contínua de alterações no comportamento do modelo, políticas claras sobre conteúdos que entram, auditoria e rastreio, literacia interna sobre riscos, e uma governação que chega ao nível de direção, porque o impacto é estratégico.

A próxima era da cibersegurança vai exigir que as organizações defendam não apenas sistemas, mas também semântica. A integridade da forma como as máquinas interpretam e comunicam torna-se um ativo competitivo. Quem liderar esta transição trata a confiança como diferenciação, e também como responsabilidade partilhada, porque a inovação sem confiança perde valor, e perde futuro.

Rui Duro é Country Manager para Portugal, Check Point Software

Opinião