Anthropic admite falha no Claude Code após usuários esgotarem limites de uso muito mais rápido que o esperado
- Cyber Security Brazil
- há 6 horas
- 2 min de leitura

A Anthropic reconheceu publicamente um problema em seu assistente de programação baseado em inteligência artificial, o Claude Code, após uma onda de reclamações de usuários que relataram consumo excessivo de tokens e esgotamento prematuro das cotas de uso. O incidente tem impactado diretamente fluxos de trabalho automatizados, especialmente entre desenvolvedores que dependem da ferramenta no dia a dia.
De acordo com a empresa, usuários estão atingindo os limites de uso “muito mais rápido do que o esperado”, e a investigação já foi classificada como prioridade máxima. O problema se tornou evidente em fóruns como Discord e Reddit, onde assinantes de planos pagos relataram restrições severas.
Um usuário do plano Claude Pro, por exemplo, afirmou que sua cota semanal é esgotada já no início da semana, limitando o uso a poucos dias por mês.
Relatos indicam que a situação pode estar relacionada a múltiplos fatores. Um deles é a recente redução de cotas durante horários de pico, medida que, segundo a empresa, afetaria cerca de 7% dos usuários. Além disso, o fim de uma promoção que dobrava os limites de uso fora de janelas específicas pode ter contribuído para a percepção de queda abrupta na disponibilidade do serviço.
Outro ponto crítico levantado pela comunidade envolve possíveis falhas no próprio sistema. Desenvolvedores apontaram a existência de bugs que impactam o mecanismo de cache de prompts — funcionalidade projetada para reduzir custos e tempo de processamento em tarefas repetitivas. Segundo análises independentes, essas falhas podem inflar o consumo de tokens em até 10 a 20 vezes. Alguns usuários relataram melhora significativa ao utilizar versões anteriores do software, sugerindo regressões recentes no código.
A documentação oficial indica que o cache possui duração padrão de apenas cinco minutos, o que pode elevar custos caso haja pausas curtas no uso da ferramenta. Embora seja possível estender esse tempo para uma hora, isso implica em custos adicionais, criando um trade-off complexo entre eficiência e controle financeiro.
Outro fator que gera frustração é a falta de transparência nos limites de uso. A Anthropic não divulga valores exatos de consumo para seus planos, o que dificulta o planejamento por parte dos desenvolvedores. Em vez disso, a empresa utiliza métricas relativas — como “até cinco vezes mais uso que o plano gratuito” — obrigando os usuários a monitorarem manualmente o consumo por meio de dashboards.
Casos semelhantes já vêm sendo observados no mercado. Usuários de ferramentas como Google Antigravity também relataram problemas relacionados a limites de uso e consumo inesperado recentemente, evidenciando um desafio estrutural na adoção de IA em escala.
Mais do que um incidente isolado, o episódio expõe uma tensão crescente entre usuários e fornecedores de soluções baseadas em IA. De um lado, empresas incentivam a integração dessas ferramentas em fluxos automatizados e processos críticos. De outro, modelos de precificação baseados em consumo e limites dinâmicos podem interromper operações de forma inesperada.
Especialistas alertam que, em ambientes automatizados, falhas de limitação podem gerar impactos significativos. Erros de rate-limit, por exemplo, podem ser interpretados como falhas genéricas, acionando tentativas automáticas de repetição e consumindo rapidamente toda a cota disponível — em alguns casos, em questão de minutos.