top of page

Anthropic admite falha no Claude Code após usuários esgotarem limites de uso muito mais rápido que o esperado



A Anthropic reconheceu publicamente um problema em seu assistente de programação baseado em inteligência artificial, o Claude Code, após uma onda de reclamações de usuários que relataram consumo excessivo de tokens e esgotamento prematuro das cotas de uso. O incidente tem impactado diretamente fluxos de trabalho automatizados, especialmente entre desenvolvedores que dependem da ferramenta no dia a dia.


De acordo com a empresa, usuários estão atingindo os limites de uso “muito mais rápido do que o esperado”, e a investigação já foi classificada como prioridade máxima. O problema se tornou evidente em fóruns como Discord e Reddit, onde assinantes de planos pagos relataram restrições severas.


Um usuário do plano Claude Pro, por exemplo, afirmou que sua cota semanal é esgotada já no início da semana, limitando o uso a poucos dias por mês.


Relatos indicam que a situação pode estar relacionada a múltiplos fatores. Um deles é a recente redução de cotas durante horários de pico, medida que, segundo a empresa, afetaria cerca de 7% dos usuários. Além disso, o fim de uma promoção que dobrava os limites de uso fora de janelas específicas pode ter contribuído para a percepção de queda abrupta na disponibilidade do serviço.


Outro ponto crítico levantado pela comunidade envolve possíveis falhas no próprio sistema. Desenvolvedores apontaram a existência de bugs que impactam o mecanismo de cache de prompts — funcionalidade projetada para reduzir custos e tempo de processamento em tarefas repetitivas. Segundo análises independentes, essas falhas podem inflar o consumo de tokens em até 10 a 20 vezes. Alguns usuários relataram melhora significativa ao utilizar versões anteriores do software, sugerindo regressões recentes no código.


A documentação oficial indica que o cache possui duração padrão de apenas cinco minutos, o que pode elevar custos caso haja pausas curtas no uso da ferramenta. Embora seja possível estender esse tempo para uma hora, isso implica em custos adicionais, criando um trade-off complexo entre eficiência e controle financeiro.


Outro fator que gera frustração é a falta de transparência nos limites de uso. A Anthropic não divulga valores exatos de consumo para seus planos, o que dificulta o planejamento por parte dos desenvolvedores. Em vez disso, a empresa utiliza métricas relativas — como “até cinco vezes mais uso que o plano gratuito” — obrigando os usuários a monitorarem manualmente o consumo por meio de dashboards.


Casos semelhantes já vêm sendo observados no mercado. Usuários de ferramentas como Google Antigravity também relataram problemas relacionados a limites de uso e consumo inesperado recentemente, evidenciando um desafio estrutural na adoção de IA em escala.


Mais do que um incidente isolado, o episódio expõe uma tensão crescente entre usuários e fornecedores de soluções baseadas em IA. De um lado, empresas incentivam a integração dessas ferramentas em fluxos automatizados e processos críticos. De outro, modelos de precificação baseados em consumo e limites dinâmicos podem interromper operações de forma inesperada.


Especialistas alertam que, em ambientes automatizados, falhas de limitação podem gerar impactos significativos. Erros de rate-limit, por exemplo, podem ser interpretados como falhas genéricas, acionando tentativas automáticas de repetição e consumindo rapidamente toda a cota disponível — em alguns casos, em questão de minutos.

 
 
Cópia de Cyber Security Brazil_edited.jpg

Cyber Security Brazil desde 2021, atuamos como referência nacional em segurança digital, oferecendo informação confiável, conteúdo especializado e fortalecendo o ecossistema de cibersegurança no Brasil.

Institucional

(11)97240-7838

INSCREVA SEU EMAIL PARA RECEBER

ATUALIZAÇÕES, POSTS E NOVIDADES

  • RSS
  • Instagram
  • LinkedIn

© 2025 Todos os direitos reservados a Cyber Security Brazil

bottom of page