AI Act: União Europeia entre a regulamentação e os direitos fundamentais

Já no dia 1 de fevereiro de 2025, entra em vigor o AI Act, o novo marco legislativo da União Europeia destinado a regulamentar a utilização da inteligência artificial (IA). O objetivo é mitigar os riscos associados à tecnologia, mas as exceções negociadas durante a sua formulação levantam preocupações sobre possíveis violações dos direitos fundamentais e a privacidade dos cidadãos europeus.
28 de Janeiro, 2025
Imagem gerada por IA

O AI Act proíbe, entres outras coisas, o uso de sistemas de reconhecimento facial em tempo real em espaços públicos. Contudo, há uma exceção para situações que envolvam a segurança nacional ou investigações criminais específicas. Este ponto, intensamente defendido por países como França, Itália e Suécia, permite às autoridades recorrer a estas tecnologias em cenários que vão desde protestos ambientais até grandes eventos, como os Jogos Olímpicos de 2024, onde a França já utilizou vigilância com IA.

Organizações como a Amnistia Internacional alertam para o perigo de tais práticas se tornarem a norma, resultando numa “ameaça séria às liberdades civis”. A preocupação reside não apenas no impacto para os cidadãos, mas também no potencial de abuso por parte de empresas privadas e países terceiros, que podem fornecer a tecnologia às autoridades europeias, aumentando a capacidade de vigilância sobre a população.

Biometria e segmentação: um campo minado

O AI Act também regula os sistemas de categorização biométrica, como aqueles que analisam etnia, género ou orientação sexual. Embora estejam proibidos na maioria dos casos, a legislação permite exceções para aplicação da lei, especialmente para investigações relacionadas com extremismo violento ou terrorismo. Esta concessão, impulsionada por países como França e Grécia, foi amplamente criticada por especialistas em direitos digitais e jurídicos.

Oportunidades para abusos: a questão da autorregulação

Outro elemento controverso é a possibilidade de autorregulação por parte das empresas que desenvolvem IA. Tecnologias consideradas de “alto risco”, como a vigilância em tempo real, deveriam, em teoria, estar sujeitas a análises de impacto, registos em bases de dados europeias e aprovação judicial. Contudo, uma flexibilização negociada permite que os fornecedores decidam, através de um processo de autocertificação, se os seus produtos se enquadram nesta categoria.

Impacto político e económico

A formulação e aprovação do AI Act também refletem dinâmicas políticas dentro da União Europeia. Na reta final das negociações, a presidência espanhola do Conselho da UE pressionou pela conclusão do acordo antes das eleições europeias de 2024, temendo que atrasos pudessem beneficiar partidos de extrema-direita, que frequentemente criticam regulamentações tecnológicas.

Por outro lado, os defensores de uma abordagem mais flexível, como a França, argumentaram que regulamentações excessivas poderiam levar as empresas europeias a deslocalizar as suas operações para regiões com menos restrições digitais, reduzindo a competitividade do bloco no mercado global de IA.

O desafio à frente

O AI Act é pioneiro, estabelecendo a primeira tentativa abrangente de regulamentar a IA numa grande economia global. Contudo, ao equilibrar inovações tecnológicas com a proteção de direitos fundamentais, o regulamento expõe a complexidade deste desafio.

A partir de fevereiro de 2025, a Europa entrará numa nova era de vigilância e inovação. Resta saber se o AI Act será capaz de cumprir a sua promessa de limitar os riscos da IA sem comprometer os valores centrais da União Europeia.

Com informação Computerworld