Um estudo da Universidade de Coimbra, apoiado pela Indra Group, identifica falhas significativas em modelos avançados de IA, com mais de 80% a gerar código inseguro perante ataques dissimulados.
A Universidade de Coimbra, em colaboração com a Indra Group, apresentou o whitepaper “IA e Cibersegurança: O Desafio da Confiança Digital”, um estudo que analisa a maturidade, os riscos e as vulnerabilidades da inteligência artificial e propõe um novo enquadramento para avaliar a segurança dos grandes modelos de linguagem. Desenvolvido por João Donato, sob orientação de João Campos, investigadores do CISUC e do LASI, o trabalho oferece uma visão detalhada sobre a fragilidade dos sistemas atuais e a necessidade de mecanismos robustos de proteção numa era dominada pela IA generativa.
Segundo o estudo, mais de 80% dos modelos testados geraram código inseguro quando expostos a ataques de manipulação dissimulados. As conclusões indicam ainda que técnicas multi-turno e de role-play continuam capazes de contornar barreiras de segurança amplamente consideradas robustas, enquanto modelos recentes, como o Llama 3.1:70b, revelam avanços na avaliação de risco, mas mantêm vulnerabilidades contextuais que exigem monitorização contínua.
Os investigadores alertam para a necessidade de construir sistemas “seguros por design”, onde inovação e segurança evoluam em conjunto. “A segurança da IA precisa de ser mensurável, comparável e contínua. Só assim será possível criar confiança digital real e sustentável”, afirmam João Donato e João Campos.
O enquadramento proposto no whitepaper combina métricas objetivas, cenários realistas e um “júri automatizado” composto por modelos independentes, permitindo avaliar de forma comparada a resiliência a diferentes técnicas de ataque. O objetivo, segundo os autores, é transformar investigação académica em valor aplicado, promovendo sistemas de IA mais éticos, transparentes e seguros.
A investigação destaca ainda o papel determinante da tecnologia na deteção precoce de riscos, sublinhando a importância de ferramentas avançadas de monitorização, algoritmos de análise comportamental e auditorias automatizadas para mitigar vulnerabilidades antes que comprometam a integridade dos modelos.






