top of page

Falha no Framework Llama da Meta expõe sistemas de IA a riscos de RCE

  • Foto do escritor: Cyber Security Brazil
    Cyber Security Brazil
  • 26 de jan.
  • 3 min de leitura

Uma grave falha de segurança foi descoberta no framework de modelo de linguagem (LLM) da Meta, chamado Llama. A vulnerabilidade, identificada como CVE-2024-50050, pode permitir que hackers executem códigos arbitrários no servidor de inferência Llama Stack.


A falha recebeu uma pontuação de 6,3 de 10 no sistema CVSS, enquanto a empresa de segurança Snyk classificou sua gravidade como crítica, atribuindo um índice de 9,3.


"A versão vulnerável do Meta-Llama permite a desserialização de dados não confiáveis, o que significa que hackers podem executar códigos arbitrários ao enviar dados maliciosos para serem desserializados", explicou Avi Lumelsky, pesquisador da Oligo Security, em uma análise recente.


O problema está em um componente chamado Llama Stack, responsável por definir interfaces de API para o desenvolvimento de aplicações de inteligência artificial, utilizando os modelos Llama da Meta. A falha ocorre especificamente na implementação da API de inferência em Python, que utiliza o módulo pickle para desserializar objetos. Este formato é conhecido por apresentar riscos de execução arbitrária de código quando dados maliciosos são carregados.


"Em cenários onde o socket ZeroMQ é exposto na rede, hackers podem explorar essa vulnerabilidade enviando objetos maliciosos ao socket", afirmou Lumelsky. "Como o método recv_pyobj do ZeroMQ desserializa esses objetos automaticamente, isso pode resultar em execução de código remoto (RCE) na máquina anfitriã."


Após uma divulgação responsável em 24 de setembro de 2024, a Meta corrigiu a falha em 10 de outubro com o lançamento da versão 0.0.41. A solução incluiu a substituição do formato pickle pelo formato JSON na comunicação de socket, além de melhorias na biblioteca Python pyzmq, que fornece acesso ao ZeroMQ.


Essa não é a primeira vez que vulnerabilidades desse tipo são identificadas em frameworks de IA. Em agosto de 2024, a Oligo detalhou uma falha no framework Keras do TensorFlow que também permitia execução arbitrária de código devido ao uso do módulo inseguro marshal.



Risco de ataque DDoS com ChatGPT

Pesquisadores também identificaram uma grave falha no ChatGPT, da OpenAI, que poderia ser usada para realizar ataques distribuídos de negação de serviço (DDoS) contra sites. O problema surgiu do manuseio incorreto de requisições HTTP POST na API de backend do ChatGPT, que aceita listas de URLs como entrada, mas não verifica duplicatas nem limita a quantidade de links enviados.


Essa falha permite que hackers enviem milhares de links em uma única requisição, forçando o ChatGPT a acessar todos esses links e sobrecarregar o site-alvo com conexões simultâneas, resultando em um ataque DDoS. O problema já foi corrigido pela OpenAI.


Outras descobertas preocupantes

Relatórios recentes também destacaram que assistentes de codificação baseados em IA frequentemente sugerem práticas inseguras, como a inclusão de chaves de API e senhas diretamente no código, o que pode introduzir vulnerabilidades em projetos.


Pesquisas adicionais apontaram que modelos de IA, como os LLMs, podem ser usados para potencializar ciclos de ataques cibernéticos, tornando-os mais rápidos, precisos e eficazes. "Essas tecnologias estão evoluindo os ataques cibernéticos, integrando-se a cada fase do ciclo de ataque", disse Mark Vaitzman, da Deep Instinct.


Por fim, a HiddenLayer demonstrou um método chamado ShadowGenes, que identifica genealogias de modelos de IA, como sua arquitetura e família, a partir de gráficos computacionais. Essa abordagem ajuda a melhorar a segurança da infraestrutura de IA, detectando padrões maliciosos e permitindo uma gestão mais robusta da postura de segurança.


Via - THN

 
 
 

Comments


Parceiros

Cupom 20% de desconto - CYBERSECBRA20 

bottom of page