Os Deepfakes já não são Ficção Científica — são uma Ameaça Real 

O setor empresarial, sobretudo os que operam em ambientes regulados ou com dados sensíveis, tem de repensar a sua abordagem. Confiar na perceção visual ou auditiva já não é suficiente.
11 de Agosto, 2025

Durante anos, os deepfakes foram encarados como uma curiosidade digital — vídeos curiosos, partilhados nas redes sociais, que impressionavam pela sua engenhosidade e capacidade de manipular rostos ou vozes. Em 2025, esse fenómeno deixou de ser inofensivo. A sua evolução, alimentada por inteligência artificial generativa e acessível a qualquer pessoa com intenções maliciosas, tornou-se uma arma poderosa nas mãos do cibercrime moderno.

Hoje, não são necessárias grandes organizações nem equipas técnicas para criar um ataque sofisticado. Com apenas alguns segundos de áudio, é possível clonar uma voz. Por algumas centenas de dólares, qualquer atacante pode aceder a plugins de troca de rosto em vídeo em tempo real ou a kits de phishing com IA, publicamente anunciados em canais do Telegram. O crime digital foi democratizado e transformado numa indústria autónoma.

A Check Point Research tem vindo a acompanhar esta transformação. No mais recente AI Security Report 2025, identificámos um novo patamar de risco: os deepfakes estão a deixar de ser conteúdos pré-gravados para se tornarem ferramentas em tempo real e, em breve, totalmente autónomas. Já existem agentes de IA capazes de simular conversas completas com múltiplos interlocutores em simultâneo, adaptando a linguagem e o tom com base nas respostas da vítima. O potencial de dano, sobretudo em contextos empresariais, é gigantesco.

Esta nova realidade já teve consequências alarmantes. Em dois casos recentes no Reino Unido e no Canadá, fraudes com vídeos falsos provocaram perdas superiores a 35 milhões de dólares. Em Itália, criminosos usaram uma identidade falsa para se fazerem passar pelo Ministro da Defesa numa chamada de extorsão. E, em julho, nos Estados Unidos, um indivíduo desconhecido clonou com IA a voz do Secretário de Estado Marco Rubio e contactou, através da aplicação Signal, três ministros dos Negócios Estrangeiros, um governador e um congressista. A operação, que está a ser investigada pelo Departamento de Estado, mostra até onde pode ir a manipulação — e o quão frágil pode ser a perceção do que é real.

O setor empresarial, sobretudo os que operam em ambientes regulados ou com dados sensíveis, tem de repensar a sua abordagem. Confiar na perceção visual ou auditiva já não é suficiente. Sistemas de segurança precisam de ser proativos, baseados em tecnologias capazes de detetar ameaças geradas por IA, isolar comportamentos anómalos e reagir em tempo real.

A defesa contra estes novos adversários exige uma combinação de tecnologia avançada, sensibilização contínua dos utilizadores e a adoção de políticas de confiança zero. Os deepfakes deixaram de ser uma ameaça do futuro. Estão aqui, e ignorá-los é abrir a porta a um cibercrime cada vez mais difícil de detetar — e travar. As empresas precisam de estar preparadas. Antes que a próxima fraude digital seja a sua.

Rui Duro é Country Manager da Check Point Software Portugal

Opinião