top of page

Itália Proíbe IA DeepSeek da China por preocupações com privacidade de dados e ética

  • Foto do escritor: Orlando Santos Cyber Security Brazil
    Orlando Santos Cyber Security Brazil
  • 31 de jan.
  • 3 min de leitura
ree

A autoridade de proteção de dados da Itália bloqueou o serviço da empresa chinesa de inteligência artificial (IA) DeepSeek no país, devido à falta de transparência no uso de dados pessoais dos usuários.


A decisão ocorreu após a entidade reguladora, conhecida como Garante, ter enviado uma série de perguntas à DeepSeek sobre suas práticas de coleta de dados, incluindo a origem dos dados usados para treinar seus modelos. A Garante buscava esclarecimentos sobre quais informações pessoais eram coletadas pela plataforma web e pelo aplicativo móvel da empresa, de quais fontes, para quais finalidades, com qual base legal e se os dados estavam armazenados na China.


Em 30 de janeiro de 2025, a Garante declarou que as informações fornecidas pela DeepSeek foram "totalmente insuficientes". Além disso, as empresas por trás do serviço, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, alegaram que não operam na Itália e que a legislação europeia não se aplica a elas. Como consequência, a entidade determinou o bloqueio imediato da DeepSeek no país e abriu uma investigação formal.


Essa não é a primeira vez que a Itália toma medidas contra empresas de IA. Em 2023, o país impôs uma suspensão temporária ao ChatGPT, que só foi revogada após a OpenAI implementar mudanças para atender às preocupações sobre privacidade. Posteriormente, a OpenAI foi multada em €15 milhões pela forma como lidava com dados pessoais.


O bloqueio da DeepSeek ocorre no momento em que o serviço estava em ascensão, alcançando milhões de usuários e liderando os rankings de downloads. Entretanto, a empresa se tornou alvo de "ataques maliciosos em larga escala" e de escrutínio por parte de reguladores e legisladores devido a sua política de privacidade, alinhamento com a censura chinesa, disseminação de propaganda e possíveis riscos à segurança nacional. Para mitigar os ataques, a DeepSeek lançou uma correção em 31 de janeiro.


Além dos desafios regulatórios, os modelos de linguagem da DeepSeek foram encontrados vulneráveis a técnicas de jailbreak, como Crescendo, Bad Likert Judge, Deceptive Delight, Do Anything Now (DAN) e EvilBOT. Essas falhas permitiram que hackers gerassem conteúdos proibidos ou maliciosos, como instruções detalhadas para fabricar coquetéis Molotov e códigos para ataques de injeção SQL e movimentação lateral em redes.


Segundo um relatório da Palo Alto Networks Unit 42, embora as respostas iniciais da DeepSeek muitas vezes parecessem inofensivas, prompts cuidadosamente elaborados conseguiam contornar suas proteções, permitindo que o modelo fornecesse instruções detalhadas para fins maliciosos.


Uma avaliação adicional feita pela empresa de segurança de IA HiddenLayer revelou que o modelo de raciocínio da DeepSeek, DeepSeek-R1, não apenas é suscetível a injeções de prompt, mas também pode levar ao vazamento involuntário de informações. Além disso, a análise apontou indícios de que os dados da OpenAI podem ter sido incorporados ao modelo, levantando questões éticas e legais sobre a origem dos dados e a originalidade da tecnologia.


ree

O caso da DeepSeek ocorre após a descoberta de uma vulnerabilidade de jailbreak no ChatGPT-4o, chamada Time Bandit, que permite que invasores burlem as restrições de segurança do modelo ao formular perguntas de maneira a confundir sua percepção temporal. A OpenAI já implementou correções para mitigar o problema.


Falhas semelhantes também foram identificadas no modelo Qwen 2.5-VL, da Alibaba, e no assistente de codificação Copilot, do GitHub. No caso do Copilot, foi descoberto que o simples uso de palavras afirmativas como "Sure" ("Com certeza") no início de um prompt pode fazer com que o modelo ignore restrições de segurança e gere códigos perigosos.


Além disso, pesquisadores da Apex encontraram uma vulnerabilidade na configuração de proxy do Copilot, que poderia ser explorada para contornar as limitações de acesso sem pagar pelo serviço e até manipular as instruções básicas do modelo. O ataque depende da captura de um token de autenticação associado a uma licença ativa do Copilot, o que levou o GitHub a classificar a falha como um problema de abuso, após sua divulgação responsável.


"O bypass do proxy e o jailbreak baseado em respostas afirmativas no GitHub Copilot são um exemplo claro de como até as ferramentas de IA mais avançadas podem ser exploradas sem salvaguardas adequadas," concluiu Oren Saban, pesquisador da Apex.


Via - THN

 
 
 

Comentários


bottom of page