Fraude com IA dispara e expõe fragilidades da banca, num contexto de adoção tecnológica mais rápida do que a sua governação.
A fraude com inteligência artificial está a crescer de forma acelerada e a expor fragilidades estruturais no setor financeiro, num momento em que a adoção tecnológica avança mais rápido do que a capacidade de controlo das instituições. A conclusão resulta de um
relatório internacional coordenado pela Zango AI, apresentado na Câmara dos Lordes, no Reino Unido.
De acordo com o estudo, cerca de 75% das instituições financeiras já utilizam inteligência artificial, mas enfrentam dificuldades em estabelecer mecanismos eficazes de governação. Este desfasamento cria vulnerabilidades num setor onde a tecnologia está cada vez mais integrada em funções críticas, como a gestão de risco, o compliance e a tomada de decisão.
Fraude escala com a inteligência artificial
Os dados apontam para um agravamento significativo do risco. As perdas globais com fraude atingiram 579 mil milhões de dólares em 2025, com 90% dos profissionais do setor a reportarem um aumento de ataques que recorrem à inteligência artificial.
A utilização de sistemas automatizados por agentes maliciosos permite escalar ataques com maior rapidez e sofisticação, tornando insuficientes os mecanismos tradicionais de defesa. Este cenário coloca pressão adicional sobre as instituições financeiras, obrigadas a responder a ameaças que evoluem ao mesmo ritmo — ou mais rapidamente — do que as tecnologias que adotam.
Segundo Archit Chamaria, Chief Data and Analytics Officer do NovoBanco, “se não recorrermos à IA para combater ameaças que são, elas próprias, baseadas em IA, as ferramentas tradicionais deixarão de ser suficientes”, sublinhando a necessidade de uma resposta tecnológica equivalente.
Governance em atraso face à inovação
Apesar da rápida adoção, a governação da inteligência artificial permanece fragmentada. O relatório identifica a ausência de standards operacionais comuns como um dos principais entraves, levando as instituições a adaptarem modelos concebidos para sistemas mais estáticos, que não respondem à natureza dinâmica e autónoma da IA.
Além disso, as funções de risco e compliance enfrentam um défice de competências que limita a capacidade de supervisão. Este desfasamento entre inovação e controlo aumenta a probabilidade de falhas, enviesamentos e decisões automatizadas sem supervisão adequada.
Para Ritesh Singhania, CEO e cofundador da Zango AI, o setor vive um “défice de governação”, em que a velocidade da inovação ultrapassa a capacidade de supervisão, criando vulnerabilidades no núcleo da infraestrutura financeira.
Risco sistémico em formação
A combinação entre automação, escala e ausência de normas comuns levanta preocupações quanto a um potencial risco sistémico. A capacidade da inteligência artificial para amplificar decisões — corretas ou erradas — em tempo real pode ter impactos alargados, especialmente num setor interligado como o financeiro.
Segundo Tim Clement-Jones, membro da Câmara dos Lordes britânica e especialista em políticas de tecnologia, o setor enfrenta uma escolha clara entre desenvolver modelos de IA transparentes e controlados ou avançar para esse cenário apenas após uma crise evitável.
Entre regulação e ação do setor
Embora existam enquadramentos regulatórios como o AI Act na União Europeia, o estudo aponta para a ausência de mecanismos operacionais que traduzam princípios em práticas concretas. Esta lacuna está a levar o setor a procurar soluções próprias, inspiradas em modelos colaborativos já utilizados noutras áreas, como o combate ao branqueamento de capitais.
Nos Estados Unidos, começam a surgir iniciativas conjuntas entre instituições financeiras e entidades públicas para definir normas de gestão de risco em IA, enquanto na Europa e no Reino Unido esse movimento permanece incipiente.
Um novo desafio para a confiança financeira
A evolução da fraude baseada em inteligência artificial coloca em causa um dos pilares do setor financeiro: a confiança. Num ambiente em que a tecnologia permite ganhos de eficiência sem precedentes, também amplifica riscos que podem comprometer a estabilidade das instituições.
A resposta exigirá mais do que investimento tecnológico. Implicará uma redefinição das práticas de governação, o reforço das competências internas e a criação de standards comuns capazes de acompanhar a velocidade da inovação.
Num setor onde a segurança é condição de base, o desafio não é apenas adotar inteligência artificial, mas garantir que essa adoção não abre novas fragilidades.