Todos os caminhos dão a Roma: Itália na liderança da criminalização de deepfakes.

Itália deu um passo decisivo na luta contra os riscos da Inteligência Artificial (IA), tornando-se um dos primeiros países europeus a criminalizar expressamente a produção e utilização abusiva de deepfakes. A aprovação da Lei de Inteligência Artificial, trouxe para o centro do debate público a questão da manipulação digital de imagens, vozes e vídeos, fenómeno que ameaça tanto a privacidade e reputação individuais como a confiança coletiva na informação.
6 de Novembro, 2025

A Lei em questão sanciona a simulação ou manipulação da identidade de uma pessoa através de tecnologias digitais, sempre que tal prática induza em erro sobre a autenticidade do conteúdo e cause um “dano injusto” à vítima. As penas previstas oscilam entre um e cinco anos de prisão, podendo ser agravadas em situações, por exemplo, quando o deepfake é utilizado para fraude, roubo de identidade ou envolva menores e pessoas mais vulneráveis.

A Lei vai além da criação de conteúdos falsificados: também a sua partilha consciente pode ser punida, quando provado que o difusor sabia do carácter enganador do material e da sua potencialidade lesiva. A responsabilidade penal, não se limita apenas ao autor material do deepfake, podendo abranger quem colabore na sua disseminação. 

É também agora atribuída às autoridades nacionais de digitalização e cibersegurança, como a Agenzia per l’Italia Digitale e a Agenzia per la Cybersecurity Nazionale, competências reforçadas de fiscalização e coordenação, sobretudo em setores críticos como a saúde, educação, justiça e administração pública. 

Um exemplo da relevância desta legislação foi o caso mediático da primeira-ministra Giorgia Meloni, alvo de deepfakes de carácter pornográfico que circularam online e deram origem a processos judiciais contra os responsáveis. Este episódio não só expôs a vulnerabilidade até mesmo das mais altas figuras do Estado, como também reforçou a urgência de um quadro legal capaz de proteger cidadãos comuns de situações semelhantes.

Apesar dos avanços, persistem desafios significativos. Do ponto de vista técnico, a prova da autoria de um deepfake continua a ser um terreno complexo: é necessário conjugar perícias digitais detalhadas, que procuram vestígios de manipulação, watermarks ou padrões de algoritmos, com investigações policiais que identifiquem a origem do ficheiro e os responsáveis pela sua publicação. Do ponto de vista jurídico, será essencial que os tribunais consigam adaptar os critérios de “dano injusto” à multiplicidade de situações possíveis, evitando tanto a impunidade como a criminalização excessiva.

A lei italiana insere-se assim num esforço coletivo a nível europeu, que inclui medidas semelhantes em países como Alemanha, Espanha e França, reforçado com a entrada em vigor do AI Act da União Europeia. O caso italiano é mais um exemplo no caminho a seguir ao criminalizar explicitamente os deepfakes, através de um novo instrumento de defesa das vítimas e um sinal claro de intolerância perante os abusos da lA. No entanto, a eficácia desta lei dependerá não apenas do seu texto, mas sim, da capacidade prática de investigação, cooperação internacional e da atualização constante perante uma tecnologia em rápida evolução.

Bruno Castro é Fundador & CEO da VisionWare. Especialista em Cibersegurança e Investigação Forense.

Opinião