Estudo revela vulnerabilidades críticas em modelos avançados de IA

Estudo da Universidade de Coimbra, apoiado pela Indra Group, revela vulnerabilidades críticas em modelos avançados de IA.

Foto de Serg Nivens em Freepik

Um estudo da Universidade de Coimbra, apoiado pela Indra Group, identifica falhas significativas em modelos avançados de IA, com mais de 80% a gerar código inseguro perante ataques dissimulados.

A Universidade de Coimbra, em colaboração com a Indra Group, apresentou o whitepaper “IA e Cibersegurança: O Desafio da Confiança Digital”, um estudo que analisa a maturidade, os riscos e as vulnerabilidades da inteligência artificial e propõe um novo enquadramento para avaliar a segurança dos grandes modelos de linguagem. Desenvolvido por João Donato, sob orientação de João Campos, investigadores do CISUC e do LASI, o trabalho oferece uma visão detalhada sobre a fragilidade dos sistemas atuais e a necessidade de mecanismos robustos de proteção numa era dominada pela IA generativa.

Segundo o estudo, mais de 80% dos modelos testados geraram código inseguro quando expostos a ataques de manipulação dissimulados. As conclusões indicam ainda que técnicas multi-turno e de role-play continuam capazes de contornar barreiras de segurança amplamente consideradas robustas, enquanto modelos recentes, como o Llama 3.1:70b, revelam avanços na avaliação de risco, mas mantêm vulnerabilidades contextuais que exigem monitorização contínua.

Os investigadores alertam para a necessidade de construir sistemas “seguros por design”, onde inovação e segurança evoluam em conjunto. “A segurança da IA precisa de ser mensurável, comparável e contínua. Só assim será possível criar confiança digital real e sustentável”, afirmam João Donato e João Campos.

O enquadramento proposto no whitepaper combina métricas objetivas, cenários realistas e um “júri automatizado” composto por modelos independentes, permitindo avaliar de forma comparada a resiliência a diferentes técnicas de ataque. O objetivo, segundo os autores, é transformar investigação académica em valor aplicado, promovendo sistemas de IA mais éticos, transparentes e seguros.

A investigação destaca ainda o papel determinante da tecnologia na deteção precoce de riscos, sublinhando a importância de ferramentas avançadas de monitorização, algoritmos de análise comportamental e auditorias automatizadas para mitigar vulnerabilidades antes que comprometam a integridade dos modelos.

DEIXE UMA RESPOSTA

Por favor escreva o seu comentário!
Por favor coloque o seu nome aqui

5 × 2 =