top of page

Ferramentas de IA não autorizadas se tornam hábito entre profissionais

  • Foto do escritor: Cyber Security Brazil
    Cyber Security Brazil
  • 21 de abr.
  • 2 min de leitura

Um estudo publicado em outubro de 2024 pela Software AG revelou que metade dos profissionais em atividade estão utilizando ferramentas de inteligência artificial sem aprovação oficial, prática conhecida como Shadow AI. Apesar de muitas empresas adotarem medidas para restringir essas ferramentas, a maioria dos funcionários afirma que continuaria usando mesmo que seu uso fosse proibido.


A pesquisa mostra que o fácil acesso às ferramentas de IA e o incentivo à produtividade no ambiente de trabalho impulsionam os funcionários a buscar soluções por conta própria. “Para muitos profissionais do conhecimento, usar IA no trabalho já se tornou algo natural”, afirmou Michael Marriott, vice-presidente de marketing da Harmonic Security. Quando os recursos oficiais não são acessíveis ou são muito restritivos, os colaboradores recorrem a opções abertas em navegadores — frequentemente por conveniência e com boa intenção.


Segundo dados da Harmonic, que analisou 176.460 comandos enviados a modelos de IA por 8.000 usuários no primeiro trimestre de 2024, o ChatGPT lidera como ferramenta mais utilizada, com 45% dos acessos feitos por contas pessoais, como Gmail. Além disso, 68,3% dos arquivos enviados à plataforma são imagens. A análise também identificou um crescimento no uso de modelos chineses de IA, como DeepSeek, Baidu Chat e Qwen, usados por 7% dos funcionários — algo que levanta preocupações sobre possíveis acessos do governo chinês a dados sensíveis.


Embora tenha havido uma leve redução geral no envio de informações sensíveis (de 8,5% no final de 2024 para 6,7% no início de 2025), os riscos mudaram de foco. Dados de clientes, funcionários e segurança diminuíram, mas informações legais e financeiras, além de códigos sensíveis, cresceram consideravelmente. Dados pessoais identificáveis (PII) passaram a ser rastreados nesta última análise, representando 14,9% dos envios.


A Harmonic alerta que o momento exige mais do que monitoramento. É necessário gerenciar ativamente o uso de IA não oficial nas empresas. Isso inclui treinamento direcionado e ações educativas para garantir que a autonomia dos colaboradores no uso de IA não comprometa a segurança organizacional. “Não é um problema marginal, é uma realidade em quase todas as empresas — com ou sem política formal de uso de IA”, concluiu Marriott.


Via - SW

 
 
 

Comments


Parceiros

Cupom 20% de desconto - CYBERSECBRA20 

bottom of page