top of page

Google aponta uso do Gemini por hackers para planejar ataques


A Google revelou que grupos patrocinados por Estados-nação estão utilizando seu modelo de inteligência artificial Gemini para apoiar fases estratégicas do ciclo de ataque cibernético. Segundo o relatório do Google Threat Intelligence Group (GTIG), o grupo norte-coreano Lazarus Group rastreado como UNC2970 empregou a IA para realizar reconhecimento (recon), sintetizar OSINT e mapear alvos de alto valor nos setores de defesa e cibersegurança.


De acordo com o relatório, o grupo utilizou o Gemini para levantar informações sobre empresas estratégicas, cargos técnicos específicos e até faixas salariais, permitindo a criação de campanhas altamente personalizadas de phishing sob o disfarce de recrutadores corporativos uma evolução da conhecida Operation Dream Job.

O uso da IA por atores estatais não se limita ao reconhecimento. O Google identificou diferentes grupos explorando o Gemini para:


  • Automatizar análise de vulnerabilidades

  • Gerar planos de exploração direcionados

  • Desenvolver web shells e scanners

  • Criar personas convincentes para engenharia social

  • Depurar código malicioso

  • Construir kits de phishing gerados por IA


Entre os grupos mencionados estão APT31, APT41, Mustang Panda e APT42 (Irã), evidenciando que o uso de IA ofensiva está se tornando prática comum entre diferentes nações.


Um dos casos mais preocupantes envolve o malware HONESTCUE, que utiliza a API do Gemini para gerar dinamicamente código C# para estágios secundários do ataque. O payload é compilado e executado diretamente em memória via .NET, sem deixar artefatos em disco técnica que dificulta detecção por ferramentas tradicionais de EDR.


Outro exemplo é o kit de phishing COINBAIT, criado com suporte de IA generativa, que simula plataformas de criptomoedas para roubo de credenciais.


O Google também relatou tentativas de model extraction, nas quais atacantes enviaram mais de 100 mil prompts para tentar replicar o comportamento do Gemini e construir um modelo substituto. Esse tipo de ataque explora a premissa de que o comportamento exposto via API pode servir como base para treinar uma réplica funcional.


Especialistas alertam: manter apenas os pesos do modelo privados não é suficiente o comportamento exposto nas respostas pode ser explorado sistematicamente.


O relatório reforça uma tendência clara: adversários estão usando IA para aumentar velocidade, escala e sofisticação dos ataques. Isso inclui:


  • Phishing altamente contextualizado

  • Reconhecimento automatizado

  • Geração de código malicioso sob demanda

  • Uso de IA para burlar proteções baseadas em persona


Segundo o próprio Google, a resposta está na adoção de capacidades defensivas baseadas em IA que operem na mesma velocidade de máquina.


Estamos entrando em uma fase em que a IA não é apenas uma ferramenta auxiliar, mas parte integrada da infraestrutura ofensiva. O diferencial competitivo não estará apenas em quem possui mais dados ou melhores modelos, mas em quem consegue integrar IA de forma estratégica na defesa.


 
 
Cópia de Cyber Security Brazil_edited.jpg

Cyber Security Brazil desde 2021, atuamos como referência nacional em segurança digital, oferecendo informação confiável, conteúdo especializado e fortalecendo o ecossistema de cibersegurança no Brasil.

Institucional

(11)97240-7838

INSCREVA SEU EMAIL PARA RECEBER

ATUALIZAÇÕES, POSTS E NOVIDADES

  • RSS
  • Instagram
  • LinkedIn

© 2025 Todos os direitos reservados a Cyber Security Brazil

bottom of page