Fuga de dados expõe vozes e aumenta fraude com IA após exposição de milhões de gravações de utilizadores.
Mais de 46 milhões de ficheiros de áudio terão sido expostos numa aplicação de aprendizagem, levantando riscos de fraude com recurso a clonagem de voz.
Uma fuga de dados expôs milhões de gravações de voz de utilizadores de uma aplicação de aprendizagem de inglês, criando novos riscos de fraude com recurso a inteligência artificial. A descoberta foi
avançada por investigadores da Cybernews, que identificaram mais de 46 milhões de ficheiros acessíveis devido a uma falha de configuração num serviço de armazenamento na cloud.
Segundo os investigadores, a maioria dos ficheiros corresponde a gravações de utilizadores a praticar inglês, podendo incluir não apenas a voz, mas também sons de fundo, conversas privadas ou ambientes domésticos e profissionais.
A Cybernews alerta que este tipo de dados pode ser utilizado para desenvolver esquemas de fraude mais sofisticados. “Atacantes podem usar estas gravações para criar campanhas de phishing com recurso a clonagem de voz, imitando colegas, familiares ou contactos próximos”, refere a equipa de investigação, acrescentando que os dados podem também ser explorados em esquemas de extorsão digital.
A aplicação em causa, Abceed, é descrita como uma das mais utilizadas no Japão na aprendizagem de inglês, com uma base de cerca de cinco milhões de utilizadores e parcerias com entidades como a Paramount, Sony Pictures Entertainment e editoras educativas.
Após a identificação da vulnerabilidade, os investigadores afirmam ter contactado a empresa, tendo o acesso sido entretanto restringido. Até ao momento, não foi divulgada uma posição oficial da empresa sobre o incidente.
O caso ilustra uma evolução no tipo de risco associado a fugas de dados, com a exposição de informação biométrica, como a voz, a ganhar relevância num contexto em que tecnologias de inteligência artificial permitem replicar identidades com elevado grau de precisão.
Especialistas alertam que a combinação entre grandes volumes de dados de voz e ferramentas de IA pode acelerar o desenvolvimento de fraudes mais difíceis de detetar, colocando pressão adicional sobre empresas e utilizadores na gestão da sua identidade digital.