Reino Unido endurece combate à “nudificação” por IA e ameaça executivos de tecnologia com prisão
- Cyber Security Brazil
- 13 de abr.
- 3 min de leitura

O governo do Reino Unido elevou o tom no enfrentamento à disseminação de imagens íntimas não consensuais geradas ou manipuladas por ferramentas de inteligência artificial. Na sexta-feira, autoridades britânicas anunciaram o envio formal de uma proposta de alteração em um projeto de lei criminal que poderá responsabilizar pessoalmente executivos de empresas de tecnologia caso suas plataformas não removam esse tipo de conteúdo de forma adequada.
A medida surge em meio à forte repercussão do chamado “escândalo Grok”, episódio que colocou o tema no centro do debate público internacional após a circulação em massa de imagens “nudificadas” de mulheres e crianças. O caso provocou reação global, gerando críticas de governos, entidades reguladoras e grupos de defesa digital, além de reforçar a pressão por regras mais duras contra plataformas que hospedam, distribuem ou demoram a agir diante desse tipo de material.
Pela proposta, executivos seniores poderão ser responsabilizados criminalmente se as plataformas deixarem de cumprir determinações da Ofcom, órgão regulador de comunicações do Reino Unido, para remover imagens íntimas compartilhadas sem consentimento. Na prática, isso representa uma mudança importante no modelo de responsabilização: em vez de punir apenas a empresa com sanções financeiras ou restrições operacionais, o governo passa a mirar diretamente a liderança das companhias.
Segundo o comunicado oficial, os executivos que cometerem essa infração sem uma justificativa razoável poderão ser punidos com prisão, multa, ou ambas as penalidades. O movimento indica uma escalada clara na estratégia britânica.
Em fevereiro, o primeiro-ministro Keir Starmer já havia defendido que plataformas fossem obrigadas a remover esse tipo de imagem em até dois dias, sob pena de multas e até bloqueio de serviços. Naquele momento, porém, não havia menção à possibilidade de prisão para dirigentes, o que mostra um endurecimento relevante da proposta agora apresentada.
Esse avanço regulatório também reforça a mensagem de que o governo britânico pretende tratar a proliferação dessas imagens como um problema estrutural de segurança digital e proteção social, e não apenas como uma falha moderável de conteúdo. A lógica por trás da nova abordagem é simples: se as plataformas lucram com escala, alcance e engajamento, elas também devem responder de forma proporcional pelos danos causados quando não conseguem agir rapidamente para interromper abusos.
A Ofcom já vinha acompanhando o tema com mais rigor desde janeiro, quando abriu uma investigação sobre as práticas do Grok, chatbot controlado pela xAI, empresa de Elon Musk. O caso ganhou grande visibilidade porque evidenciou como ferramentas baseadas em IA podem ser exploradas para criar ou impulsionar a circulação em massa de conteúdo abusivo em velocidade industrial, ampliando o impacto sobre as vítimas e dificultando a contenção do problema.
No debate regulatório, o ponto mais sensível é que a chamada “nudificação” por IA reduziu drasticamente a barreira técnica para esse tipo de abuso. Antes, a criação de imagens manipuladas exigia mais conhecimento, tempo e ferramentas específicas. Agora, modelos generativos e plataformas automatizadas permitem que o processo seja executado com muito menos esforço, o que transforma um crime antes mais limitado em uma ameaça escalável, de alto alcance e potencialmente devastadora para reputação, privacidade e segurança emocional das vítimas.
Ao classificar a disseminação em massa dessas imagens como uma “emergência nacional”, Starmer sinaliza que o governo quer inverter a lógica que historicamente recai sobre as vítimas, que muitas vezes precisam localizar, denunciar e solicitar repetidas remoções de conteúdo já amplamente replicado. Na visão defendida por Londres, esse peso deve migrar para os autores do abuso e para as plataformas que permitem sua disseminação.
O caso britânico também pode influenciar outras jurisdições. Nos últimos meses, o debate sobre responsabilidade de plataformas e uso abusivo de IA generativa passou a ocupar espaço crescente nas agendas regulatórias de diversos países, especialmente quando envolve violência digital, exploração de imagens e proteção de menores.
O Reino Unido, ao ameaçar inclusive a liberdade dos executivos, tenta estabelecer um precedente: o de que falhas graves na remoção de conteúdo íntimo não consensual podem deixar de ser tratadas apenas como problema de compliance e passar a ser vistas como omissão com consequências criminais.
Mais do que uma resposta ao escândalo recente, a proposta mostra como governos começam a adaptar suas leis ao novo cenário criado pela inteligência artificial. O foco deixa de estar apenas na inovação e passa a incluir, com muito mais força, a governança, os mecanismos de resposta rápida e a responsabilidade objetiva de quem opera grandes ecossistemas digitais. Para o setor de tecnologia, o recado é claro: moderação insuficiente, demora na remoção e falhas de governança podem custar não apenas dinheiro e reputação, mas também responsabilização penal direta para a alta gestão.


