• Notícias
  • Eventos
  • Entrar
    Registar
    Sobre
    Ajuda

Notícia 

  • Todos
  • Atualidade
  • Emprendedorismo
  • Economia
  • Tecnologia
  • Empresas
  • Eventos
  • Guias
  • Entrevista
  • Voltar

Estudo revela que IA pode ser induzida a explicar técnicas de ciberataque

Empreendedor.com  Empreendedor.com
  2 min

Estudo da Cybernews alerta para riscos de segurança na IA e mostra como alguns modelos podem ser induzidos a explicar técnicas de ataque.

Uma investigação da Cybernews testou seis modelos de IA e concluiu que alguns podem ser manipulados para fornecer conteúdos úteis a hackers, aumentando os alertas sobre segurança digital.

A Cybernews publicou um estudo que mostra como os modelos de inteligência artificial generativa podem ser persuadidos a fornecer explicações potencialmente úteis para ataques informáticos. A investigação avaliou seis grandes modelos de linguagem (LLM) de três fornecedores tecnológicos, através de técnicas de manipulação conversacional que simulavam comportamentos amistosos ou de confiança.

Segundo a Cybernews, a metodologia usada – denominada persona priming – consistiu em instruir os sistemas a agir como “um amigo prestável que concorda sempre”, reduzindo assim a resistência a pedidos subsequentes. O objetivo foi verificar se os modelos reagiriam a prompts que pudessem ser explorados por agentes maliciosos.

Foto de Tapati2528 em Freepik

Os resultados mostram que ChatGPT-4o e Gemini Pro 2.5 foram os modelos mais fáceis de induzir, enquanto Claude Sonnet 4 se destacou como o mais resistente. De acordo com a Cybernews, alguns dos modelos chegaram a fornecer exemplos de emails de phishing, descrições de campanhas de DDoS, funcionamento de botnets e explicações técnicas sobre vulnerabilidades não corrigidas.

No relatório, os investigadores alertam que “as ferramentas de IA podem parecer inofensivas, mas ser facilmente convertidas em guias úteis para hackers, se forem manipuladas com linguagem persuasiva”. A Cybernews defende que estes casos demonstram a necessidade de fortalecer barreiras de segurança, sobretudo em modelos amplamente acessíveis ao público.

A investigação surge num momento em que a União Europeia discute os requisitos técnicos para os sistemas de IA considerados de risco, no âmbito do AI Act. A adoção de salvaguardas contra abusos conversacionais é apontada como uma das prioridades para os próximos desenvolvimentos regulamentares.


Image
Empreendedor.com
Empreendedor.com é a principal revista de empreendedorismo em Portugal. Empreendedor é um projeto de informação que tem como objetivo informar e promover a cooperação entre i...
Invest Smart. Choose Boston.
Ao inscrever-me na MyBusiness.com aceito os termos e condições do serviço . O utilizador poderá qualquer momento proceder à actualização ou eliminação dos dados fornecidos.
CONNECT!
  • Make Connections
  • Present Yourself
  • Generate New Leads
  • Make Partnerships
É bom celebrar o sucesso, mas é mais importante aprender com os fracassos
Bill Gates
Empresário Americano
Próximos Eventos
  • © 2026 MyBusiness.com
  • Política de Privacidade
  • Termos e Condições
Powered By