top of page

OpenAI bane contas que usavam ChatGPT para vigilância, golpes e propaganda maliciosa

  • Foto do escritor: Orlando Santos Cyber Security Brazil
    Orlando Santos Cyber Security Brazil
  • 22 de fev.
  • 3 min de leitura
ree

A OpenAI revelou na última sexta-feira que baniu diversas contas que utilizavam o ChatGPT para desenvolver uma ferramenta suspeita de vigilância baseada em inteligência artificial (IA).


Essa ferramenta de monitoramento de mídias sociais supostamente tem origem na China e utiliza um dos modelos Llama, da Meta. As contas envolvidas usavam os modelos da OpenAI para gerar descrições detalhadas e analisar documentos, com o objetivo de construir um sistema capaz de coletar dados em tempo real sobre protestos contra o governo chinês no Ocidente e compartilhar essas informações com as autoridades chinesas.


A campanha foi apelidada de Peer Review, devido ao comportamento da rede em promover e revisar ferramentas de vigilância. De acordo com os pesquisadores Ben Nimmo, Albert Zhang, Matthew Richard e Nathaniel Hartley, o sistema foi projetado para capturar e analisar postagens e comentários de plataformas como X (Twitter), Facebook, YouTube, Instagram, Telegram e Reddit.


Em um dos casos identificados pela OpenAI, os hackers usaram o ChatGPT para depurar e modificar o código-fonte de um software de monitoramento conhecido como “Qianyue Overseas Public Opinion AI Assistant”. Além disso, a ferramenta foi empregada para coletar informações sobre think tanks dos Estados Unidos, funcionários governamentais e políticos da Austrália, Camboja e EUA, além de ler, traduzir e analisar documentos em inglês.


Entre as imagens analisadas, estavam anúncios de protestos em defesa dos direitos dos uigures em cidades ocidentais, provavelmente extraídos de redes sociais. No entanto, ainda não se sabe se essas imagens eram autênticas.


Além desse caso, a OpenAI desmantelou outras redes que estavam utilizando o ChatGPT para atividades maliciosas:

  • Esquema de Emprego Fraudulento: Um grupo hacker da Coreia do Norte usava IA para criar documentos falsos para candidatos fictícios, incluindo currículos, perfis online e cartas de apresentação, além de gerar respostas persuasivas para justificar comportamentos suspeitos, como evitar chamadas de vídeo ou acessar sistemas corporativos de locais não autorizados. Algumas candidaturas falsas foram identificadas no LinkedIn.

  • Campanha de Desinformação Patrocinada: Um grupo, provavelmente chinês, criou conteúdos em inglês e artigos em espanhol criticando os Estados Unidos, que foram publicados em sites de notícias da América Latina, incluindo Peru, México e Equador. Algumas atividades coincidem com a operação Spamouflage, um conhecido esquema de propaganda chinesa.

  • Golpe de Romance: Um grupo de contas foi usado para traduzir e gerar comentários em japonês, chinês e inglês para redes sociais como Facebook, X e Instagram, relacionado a golpes de romance e investimentos, possivelmente originários do Camboja.

  • Operação de Influência Iraniana: Uma rede de cinco contas gerou postagens e artigos pró-Palestina, pró-Hamas e pró-Irã, além de conteúdos anti-Israel e anti-EUA. O material foi compartilhado em sites ligados a campanhas de influência do Irã, como a International Union of Virtual Media (IUVM) e a operação Storm-2035.

  • Hackers Kimsuky e BlueNoroff: Um grupo norte-coreano especializado em ataques cibernéticos foi identificado coletando informações sobre ferramentas de invasão e temas relacionados a criptomoedas, além de depurar códigos para ataques de força bruta via Remote Desktop Protocol (RDP).

  • Operação de Influência Eleitoral em Gana: Contas envolvidas na criação de artigos em inglês para o site "Empowering Ghana", além de postagens nas redes sociais com foco nas eleições presidenciais de Gana.

  • Golpe de Tarefas Online: Contas originadas no Camboja eram usadas para traduzir comentários entre urdu e inglês como parte de um esquema fraudulento. O golpe prometia pagamento por tarefas simples, como curtir vídeos ou escrever avaliações, mas exigia que as vítimas pagassem para acessar as oportunidades, resultando em perdas financeiras.


Esse movimento da OpenAI ocorre em um momento em que hackers estão utilizando cada vez mais ferramentas de IA para facilitar campanhas de desinformação e outras atividades maliciosas.


No mês passado, o Google Threat Intelligence Group (GTIG) revelou que pelo menos 57 grupos hackers ligados à China, Irã, Coreia do Norte e Rússia utilizaram o chatbot Gemini AI para aprimorar diferentes fases do ciclo de ataque, incluindo pesquisa sobre eventos atuais, criação de conteúdo e tradução de materiais.


A OpenAI destacou a importância da colaboração entre empresas de IA, provedores de hospedagem, desenvolvedores de software, plataformas de redes sociais e pesquisadores independentes para detectar e impedir atividades ilícitas. "Os insights únicos que as empresas de IA podem obter sobre hackers são especialmente valiosos quando compartilhados com os provedores certos, tanto upstream quanto downstream", afirmou a empresa.


Via - THN

 
 
 

Comentários


bottom of page