A crescente adoção de ferramentas de inteligência artificial generativa trouxe consigo avanços significativos na produtividade, mas também levantou preocupações inquietantes. Um novo estudo, publicado pela startup de proteção de dados Harmonic Security, revelou que quase 1 em cada 10 interações feitas por utilizadores empresariais com estas ferramentas expõem dados potencialmente sensíveis.
Descobertas preocupantes
O estudo analisou, no último trimestre de 2024, a utilização de ferramentas de IA generativa como Microsoft Copilot, OpenAI’s ChatGPT, Google Gemini, Claude e Perplexity. Os resultados mostram que, embora a maioria dos pedidos feitos pelos colaboradores sejam simples, como resumir textos, editar artigos de blog ou documentar código, cerca de 8,5% dos pedidos analisados levantaram preocupações de segurança.
Entre os casos de maior risco, destaca-se a partilha de:
- Dados de clientes (45,8% dos casos), como informações de faturação e dados de autenticação;
- Informações de colaboradores (26,8%), incluindo dados pessoais, registos de emprego e até mesmo avaliações de desempenho;
- Dados financeiros e jurídicos (14,9%), envolvendo portfólios de investimentos e atividades de fusões e aquisições;
- Informações de segurança (6,9%), como relatórios de incidentes e configurações de rede;
- Código sensível (5,6%), que pode incluir chaves de acesso ou código fonte proprietário.
O perigo das versões gratuitas
O estudo também revelou que muitos colaboradores utilizam versões gratuitas destas ferramentas, que frequentemente carecem de recursos de segurança integrados nas versões empresariais. Estes serviços gratuitos, como ChatGPT (usado na versão gratuita por 63,8% dos utilizadores analisados) e Claude (75%), frequentemente treinam os seus modelos com os dados fornecidos pelos utilizadores. Isso significa que informações sensíveis introduzidas nas plataformas podem ser incorporadas para melhorar os modelos, agravando o risco de exposição de dados.
Recomendações para mitigar riscos
Para mitigar estes riscos, a Harmonic Security propõe uma abordagem proativa:
- Implementar sistemas de monitorização em tempo real para acompanhar os dados introduzidos nas ferramentas de IA generativa;
- Garantir que os colaboradores utilizam versões pagas ou configuram opções que não treinem os modelos com os dados inseridos;
- Adotar sistemas que permitam visibilidade ao nível dos pedidos para compreender que informações estão a ser partilhadas.
Estas medidas podem parecer onerosas, mas são cruciais num contexto em que os benefícios das ferramentas de IA generativa caminham lado a lado com riscos significativos para a segurança e privacidade dos dados.
Importa ter atenção ao seguinte
O estudo sublinha que a IA generativa ainda é um território em rápida evolução, onde o potencial de transformação deve ser equilibrado com uma vigilância rigorosa. À medida que as empresas integram cada vez mais estas ferramentas nos seus processos, a gestão eficaz de dados sensíveis não é apenas uma boa prática — é uma necessidade imperativa.
Se as organizações ignorarem estas advertências, o custo pode não ser apenas financeiro, mas também reputacional, com consequências duradouras para todas as partes envolvidas.







