A União Europeia encontra-se numa situação de tensão ao ter de optar por flexibilizar o Regulamento Geral de Proteção de Dados ou adiar a aplicação da Lei de IA para sistemas de alto risco. Este movimento paralelo traduz-se num ambiente regulatório em mudança, no qual as decisões de investimento em IA devem ser tomadas com prudência e uma leitura atenta dos riscos.
O RGPD, em vigor desde 2018, tornou-se o quadro de referência europeu para a proteção de dados pessoais, com princípios como a minimização de dados e a limitação de finalidade que colidem com o funcionamento da IA generativa. Esta última baseia-se em modelos que necessitam de grandes volumes de informação para serem treinados e gerarem conteúdos, como acontece com sistemas conhecidos no mercado, entre os quais o ChatGPT ou o Gemini. O conflito surge quando a lógica de que quanto mais dados melhor para o desenvolvimento destes modelos se depara com um quadro jurídico que exige a recolha apenas dos dados estritamente necessários e a sua utilização para fins específicos previamente definidos.
Neste contexto, e de acordo com o que foi divulgado em Bruxelas, a Comissão Europeia está a estudar uma forma de atenuar este choque entre inovação e proteção de dados. A opção que está a ser analisada passa por reclassificar o desenvolvimento da IA como atividade de interesse público ou como investigação científica.
Esta possível reclassificação abriria a porta à reutilização de dados anonimizados sem ter de obter novamente o consentimento das pessoas, o que, na prática, significaria dispor de uma margem mais ampla para treinar modelos de IA a partir de dados já recolhidos, desde que se respeite a sua anonimização.
Alguns especialistas consideram que esta reinterpretação do RGPD representa uma mudança profunda na forma de entender a investigação. Ao incluir este conceito no desenvolvimento de produtos comerciais baseados em IA, esta evolução poderia resultar, se não for acompanhada de garantias, numa erosão gradual dos direitos digitais reconhecidos até agora na Europa.
Embora a UE chegue mais tarde do que outros atores globais à corrida pela IA, não deve fazê-lo à custa de rebaixar os princípios que marcaram a sua política de privacidade.
A proteção de dados pode ser um elemento diferenciador no mercado se for integrada num modelo de inovação que incorpore a privacidade como parte do design e não como um requisito adicional. Paralelamente ao debate sobre o RGPD, a União Europeia decidiu adiar por mais de um ano a entrada em vigor da Lei de IA para sistemas considerados de alto risco.
Esta norma, aprovada em 2024, visa garantir que a implementação da inteligência artificial não comprometa a privacidade nem a resiliência digital das infraestruturas e serviços críticos. No entanto, a aplicação das suas disposições mais exigentes está agora adiada até dezembro de 2027, sem um quadro específico para tecnologias como a identificação biométrica ou a avaliação de crédito.
A justificação oficial da Comissão Europeia para este adiamento centra-se na necessidade de dispor de mais tempo para definir normas técnicas e, ao mesmo tempo, aliviar a carga administrativa que recairá sobre as organizações. Com esta medida, Bruxelas prevê que as empresas possam poupar até 225 milhões de euros em custos associados ao cumprimento da regulamentação, ao disporem de requisitos mais claros e harmonizados quando a Lei da IA for plenamente aplicável.
No entanto, esta decisão abre um período transitório em que determinados sistemas de IA de alto impacto funcionarão com uma supervisão menos detalhada. Entre as áreas que ficarão nesse espaço intermédio estão a identificação biométrica, a avaliação de solvência ou a gestão do tráfego urbano, todos exemplos de tecnologias que operam com informações sensíveis ou críticas.
Num ambiente em que os ciberataques crescem 30% ao ano e a IA se consolida como vetor de ataque, a ausência de normas claras aumenta a exposição das empresas e administrações.
A Europa enfrenta estes debates num contexto de concorrência global com outros blocos económicos, como os Estados Unidos e a China, que também avançam no desenvolvimento e na implantação da IA. Neste quadro, a questão fundamental continua em aberto: como conciliar o impulso à inovação em IA com a preservação dos valores e direitos digitais que até agora definiram a política europeia de dados.







