top of page

"89% do Uso de IA Generativa nas empresas escapa ao controle: Relatório expõe riscos críticos de segurança"

  • Foto do escritor: Cyber Security Brazil
    Cyber Security Brazil
  • 28 de fev.
  • 3 min de leitura

As organizações estão adotando soluções de inteligência artificial generativa (GenAI), avaliando estratégias para integrá-las aos seus planos de negócios, ou, em muitos casos, fazendo ambos simultaneamente. Para embasar decisões assertivas e planejar de forma eficaz, dados concretos são indispensáveis — porém, essas informações ainda são surpreendentemente escassas.


O relatório “Segurança de Dados em GenAI nas Empresas 2025”, produzido pela LayerX, oferece uma visão inédita sobre o uso prático de ferramentas de IA no ambiente corporativo, ao mesmo tempo em que expõe vulnerabilidades críticas. Baseado em telemetria real coletada de clientes empresariais da LayerX, o documento é uma das poucas fontes confiáveis que detalha como os funcionários de fato utilizam a GenAI.


Por exemplo, o relatório aponta que quase 90% do uso de IA nas empresas ocorre fora do radar dos departamentos de TI, expondo as organizações a riscos significativos, como vazamento de dados e acesso não autorizado.


A seguir, apresentamos os principais destaques do relatório. Leia o documento completo para aprimorar suas estratégias de segurança, tomar decisões baseadas em dados para gerenciamento de riscos e garantir recursos para fortalecer a proteção de dados em iniciativas de GenAI.


Uso de GenAI nas Empresas é, por Enquanto, Casual


Embora o entusiasmo em torno da GenAI possa sugerir que todos os funcionários já migraram suas operações para essas ferramentas, a LayerX revela que o uso real é um pouco mais moderado. Cerca de 15% dos usuários acessam ferramentas de GenAI diariamente. Esse percentual não deve ser subestimado, mas ainda está longe de ser a maioria.


No entanto, tanto a LayerX quanto nós, do The New Stack, prevemos que essa tendência crescerá rapidamente. Especialmente porque 50% dos usuários já utilizam GenAI pelo menos a cada duas semanas. Além disso, o relatório mostra que 39% dos usuários regulares dessas ferramentas são desenvolvedores de software, o que aumenta o risco de vazamento de códigos-fonte e proprietários, além da possibilidade de inclusão de códigos perigosos nas bases de desenvolvimento.


Como a GenAI Está Sendo Usada? Ninguém Sabe ao Certo


Por estar integrada ao navegador, a ferramenta da LayerX consegue monitorar o uso de SaaS não autorizados. Isso permite identificar quando funcionários utilizam ferramentas não aprovadas pelo TI ou acessam serviços por meio de contas pessoais.


Embora ferramentas como o ChatGPT sejam usadas para fins profissionais, cerca de 72% dos funcionários as acessam via contas pessoais. Mesmo quando utilizam contas corporativas, apenas 12% fazem login com autenticação SSO (Single Sign-On). Como resultado, quase 90% do uso de GenAI permanece invisível às organizações, deixando-as vulneráveis a aplicações de “IA sombra” e ao compartilhamento não autorizado de informações corporativas.


50% das Colagens em GenAI Incluem Dados Corporativos


Você conhece o princípio de Pareto? Aqui, embora nem todos usem GenAI diariamente, os que inserem dados nessas ferramentas o fazem com frequência e, muitas vezes, com informações sensíveis.


A LayerX descobriu que, em média, usuários que submetem dados a ferramentas de GenAI colam informações corporativas quase 4 vezes por dia. Isso pode incluir dados de negócios, informações de clientes, planos financeiros, códigos-fonte, entre outros.


Como Planejar o Uso de GenAI: O que as Empresas Devem Fazer Agora


As descobertas do relatório indicam uma necessidade urgente de novas estratégias de segurança para gerenciar os riscos associados à GenAI. Ferramentas tradicionais de segurança não conseguem atender às demandas de um ambiente de trabalho moderno, impulsionado por IA e baseado em navegadores. Elas não têm capacidade de detectar, controlar e proteger interações com IA diretamente na fonte — o navegador.


Soluções de segurança baseadas em navegadores oferecem visibilidade sobre o acesso a aplicativos SaaS de IA, ferramentas desconhecidas além do ChatGPT, extensões de navegador com IA e muito mais. Essa visibilidade permite implementar soluções de prevenção de perda de dados (DLP) para GenAI, possibilitando que as empresas incorporem a IA em seus planos de forma segura e preparem seus negócios para o futuro.


Via - THN

 
 
 

Comments


Parceiros

Cupom 20% de desconto - CYBERSECBRA20 

bottom of page