top of page

OpenAI removeu do ChatGPT contas de usuários russos, iranianos e chineses alegando envolvimento e crimes cibernéticos

  • Foto do escritor: Cyber Security Brazil
    Cyber Security Brazil
  • há 3 dias
  • 3 min de leitura

A OpenAI, empresa por trás do ChatGPT, anunciou a desativação de diversas contas da plataforma que estavam sendo exploradas por hackers russos, iranianos e chineses para atividades ilícitas, incluindo desenvolvimento de malware, automação de mídia social e manipulação de narrativas geopolíticas. Em um relatório detalhado de inteligência de ameaças, a companhia revelou como esses invasores, alguns ligados a estados-nação, utilizaram a inteligência artificial para fins maliciosos, levantando preocupações sobre a segurança digital em um cenário de ciberameaças em constante evolução.


Um dos casos destacados envolve um hacker de língua russa, identificado pela OpenAI como ScopeCreep, que utilizou o ChatGPT para desenvolver e aprimorar malware voltado para sistemas Windows. Demonstrando conhecimento avançado dos componentes internos do sistema operacional, o invasor usava contas de e-mail temporárias para interagir com o chatbot em sessões únicas, ajustando incrementalmente o código malicioso antes de descartar a conta e criar uma nova.


O malware, distribuído por meio de um repositório público que imitava uma ferramenta legítima de videogame chamada Crosshair X, era projetado para roubar credenciais, cookies e tokens de navegadores, além de exfiltrar dados confidenciais. Ele incorporava técnicas sofisticadas, como ofuscação com codificação Base64, carregamento lateral de DLL, proxies SOCKS5 para ocultar a origem e tentativas de desativar o Windows Defender usando comandos PowerShell. O invasor também buscou assistência do ChatGPT para depurar códigos em Go, integrar a API do Telegram e modificar configurações de antivírus, destacando um alto nível de segurança operacional (OPSEC).


Além disso, a OpenAI identificou dois grupos hackers ligados à China, conhecidos como ATP5 (Bronze Fleetwood, Keyhole Panda) e APT15 (Flea, Nylon Typhoon), que usaram o ChatGPT para diversas finalidades, desde pesquisas técnicas sobre entidades de interesse até o desenvolvimento de scripts de força bruta para invadir servidores FTP.


Esses grupos também exploraram a automação de interações em redes sociais, gerenciando dispositivos Android para postar e curtir conteúdos programaticamente em plataformas como Facebook, Instagram, TikTok e X. As atividades incluíram desde a administração de sistemas Linux até a criação de pacotes de software para implantação offline, demonstrando um uso estratégico da IA para espionagem e manipulação digital.


Outras operações maliciosas também foram detectadas. A campanha Sneer Review, de origem chinesa, gerou postagens em massa em inglês, chinês e urdu sobre temas geopolíticos, compartilhadas em plataformas como Reddit e TikTok. A operação russa Helgoland Bite focou em conteúdos sobre as eleições alemãs de 2025 e críticas aos EUA e à OTAN, disseminados no Telegram e no X.


Já a operação iraniana Storm-2035 produziu comentários em inglês e espanhol apoiando causas como direitos palestinos e proezas militares do Irã, utilizando contas falsas que se passavam por residentes de países como EUA, Reino Unido e Venezuela. Além disso, a Operação Número Errado, de origem cambojana, usou o ChatGPT para criar mensagens de recrutamento enganosas em múltiplos idiomas, prometendo altos salários por tarefas simples, atraindo vítimas para esquemas fraudulentos que cobravam taxas de admissão.


A OpenAI também identificou atividades de hackers norte-coreanos que usaram o ChatGPT para criar materiais fraudulentos de candidaturas a empregos remotos em TI e engenharia de software, visando enganar empregadores ao redor do mundo. Outras operações, como a filipina High Five, geraram comentários sobre política local para redes sociais, enquanto a chinesa Operação VAGue Focus se passava por jornalistas para conduzir engenharia social. Segundo Ben Nimmo e outros pesquisadores da OpenAI, algumas dessas operações, como os golpes de recrutamento, operavam sob esquemas que cobravam taxas de novos membros, usando parte dos fundos para manter o engajamento das vítimas, uma tática comum em fraudes.


A empresa reforçou seu compromisso em monitorar e banir contas envolvidas em atividades ilícitas, implementando medidas para detectar comportamentos suspeitos, como o uso de e-mails temporários e interações que violam suas políticas. No entanto, esses incidentes expõem os desafios de regular o uso de tecnologias de IA em um contexto de ciberameaças crescentes.


Via - THN

 
 
 

Comments


Parceiros

Cupom 20% de desconto - CYBERSECBRA20 

bottom of page