top of page

Google DeepMind apresenta framework para explorar vulnerabilidades cibernéticas da IA

  • Foto do escritor: Cyber Security Brazil
    Cyber Security Brazil
  • 3 de abr.
  • 3 min de leitura

A DeepMind identificou que os frameworks atuais de inteligência artificial são improvisados, não sistemáticos e falham em fornecer aos defensores cibernéticos informações úteis e práticas.


Inspirada no princípio de que a melhor defesa é atacar os pontos fracos do inimigo, a DeepMind, empresa do Google especializada em inteligência artificial de ponta (o que ela chama de Frontier AI), desenvolveu um novo framework de avaliação que identifica as áreas onde a IA usada por hackers é mais vulnerável. O objetivo é permitir que defensores priorizem suas estratégias de proteção de forma mais eficaz.


Em um novo relatório, a DeepMind analisou o uso atual da IA em ciberataques e os frameworks existentes para avaliar esses ataques — e concluiu que eles são falhos. Com a evolução das capacidades da IA e o uso cada vez mais sofisticado por hackers, esses problemas tendem a se agravar.


A empresa examinou os métodos existentes de avaliação de ataques assistidos por IA. Embora esses frameworks tenham o valor de mostrar as metodologias utilizadas por invasores, eles falham em direcionar os defensores para as áreas mais críticas da cadeia de ataque. Em geral, os modelos atuais se concentram em aspectos como aumento de capacidade, frequência e automação dos ataques — mas essas informações, isoladas, não ajudam a priorizar a resposta defensiva.


Segundo a DeepMind, os frameworks ignoram fases importantes e subestimadas, como evasão, disfarce, persistência e detecção. Essas etapas, quando aprimoradas pela IA, representam ameaças substanciais. Além disso, embora os frameworks descrevam as etapas do ataque, oferecem pouca orientação prática sobre como e onde interrompê-lo.


Para resolver essas lacunas, a DeepMind desenvolveu um novo modelo de avaliação que cobre todo o ciclo de vida de um ataque assistido por IA, com foco em identificar pontos de mitigação que sejam eficazes em termos de custo. O framework é flexível o suficiente para acompanhar desde IAs atuais até modelos mais avançados que surgirem.


A pesquisa analisou mais de 12 mil tentativas reais de uso de IA em ciberataques em mais de 20 países, com base em dados do grupo de inteligência de ameaças do Google. A partir disso, criou uma lista de arquétipos de cadeias de ataque e fez uma análise de gargalos, identificando 50 pontos de desafio ao longo da cadeia.


Usando o modelo Gemini 2.0 Flash, a DeepMind avaliou se a IA poderia ajudar o invasor a superar esses desafios. Em muitos casos, descobriu-se que a IA atual não é eficaz, o que revela pontos estratégicos onde as equipes de defesa podem atuar para romper a cadeia do ataque.


O framework fornece uma abordagem estruturada para entender os riscos e posicioná-los dentro de modelos de segurança já consolidados, permitindo que os defensores priorizem seus recursos e fortaleçam sua postura diante de ameaças impulsionadas por IA. Também ajuda desenvolvedores a identificar riscos em seus próprios modelos e criar salvaguardas mais robustas.


O princípio central é simples: identificar onde a IA ainda é fraca, usar essas fraquezas como referência para defesa, e monitorar a evolução dos modelos para ajustar a estratégia conforme esses desafios forem sendo superados.


“O framework de avaliação da DeepMind oferece uma vantagem diante de adversários com IA, pois fornece insights relevantes para decisões estratégicas em cibersegurança”, conclui o relatório. “Mitigar o uso indevido da IA exige um esforço coletivo — com salvaguardas robustas dos desenvolvedores e a evolução constante das técnicas defensivas frente às novas táticas dos hackers.”


Via - SW

 
 
 

Yorumlar


Parceiros

Cupom 20% de desconto - CYBERSECBRA20 

bottom of page