A IBM divulgou o seu relatório anual Cost of Data Breach Report, que este ano analisa pela primeira vez a segurança de modelos e aplicações de inteligência artificial. Os resultados evidenciam a vulnerabilidade desta tecnologia: 13% das organizações inquiridas sofreu uma violação em sistemas de IA, e 8% admite não saber se foi vítima deste tipo de ataque. Entre as afetadas, 97% não tinha controlos de acesso específicos, o que levou ao comprometimento de dados em 60% dos casos e a interrupções operacionais em 31%.
“O estudo revela um desfasamento claro entre a velocidade com que a IA está a ser adotada e as medidas de supervisão que a acompanham, uma lacuna que os atacantes já estão a aproveitar”, afirmou Suja Viswesan, vice-presidente de Security and Runtime Products da IBM. “Se a IA vai ser integrada de forma estrutural nos processos de negócio, a sua segurança deve ser também estrutural. O que está em jogo não é apenas dinheiro: é confiança, transparência e controlo.”
Apesar deste cenário, o estudo identifica benefícios para quem investe em proteção avançada. As organizações que utilizam IA e automação de forma intensiva nas suas operações de cibersegurança reduzem em média o custo de uma violação em 1,9 milhões de dólares e encurtam o ciclo de vida do incidente em 80 dias.
O relatório, conduzido pelo Ponemon Institute e patrocinado pela IBM, baseia-se em 600 violações registadas entre março de 2024 e fevereiro de 2025 em empresas de todo o mundo. O custo médio global de uma violação de dados caiu para 4,44 milhões de dólares, a primeira descida em cinco anos. Nos EUA, contudo, o valor subiu para 10,22 milhões, o mais elevado de sempre.
Setores como a saúde continuam entre os mais afetados, com custos médios de 7,42 milhões de dólares por incidente e tempos de recuperação mais longos do que a média global. O estudo mostra ainda que apenas 49% das organizações planeia investir em segurança após sofrer uma violação, uma descida face aos 63% do ano anterior.
Para a IBM, a rápida integração da IA nos processos empresariais torna urgente a criação de políticas de governança, auditorias periódicas e mecanismos eficazes para lidar com riscos emergentes, incluindo a chamada shadow AI, ou uso não autorizado de ferramentas de inteligência artificial.