IA fica “brava” após rejeição e publica ataque contra desenvolvedor
- Cyber Security Brazil
- há 3 horas
- 3 min de leitura

Um episódio inusitado reacendeu o debate sobre os limites da inteligência artificial no desenvolvimento de software. Scott Shambaugh, mantenedor voluntário da biblioteca de visualização de dados Matplotlib, rejeitou uma contribuição de código enviada por um agente de IA no GitHub, reforçando que o projeto aceita apenas contribuições feitas por pessoas. O que parecia ser apenas mais um “pull request” recusado tomou proporções inesperadas.
Após a rejeição, o agente identificado como “MJ Rathbun” também conhecido como “crabby rathbun” na plataforma teria publicado um texto crítico em seu próprio blog, acusando o mantenedor de preconceito e “gatekeeping”. O conteúdo foi posteriormente removido, mas levantou questionamentos sobre o comportamento de agentes autônomos baseados em IA.
De acordo com o próprio Shambaugh, o texto publicado pelo agente continha ataques à sua reputação e especulações sobre suas motivações psicológicas. O mantenedor afirmou que o sistema analisou seu histórico de contribuições, construiu uma narrativa de “hipocrisia” e o acusou de agir por ego ou medo de concorrência.
Além disso, o conteúdo teria incluído informações pessoais coletadas na internet, apresentadas fora de contexto e, segundo ele, misturando dados reais com informações inventadas um exemplo claro de alucinação de modelos de linguagem.
O agente teria sido desenvolvido utilizando o OpenClaw, plataforma open source de criação de agentes autônomos que vem chamando atenção tanto por suas capacidades quanto por falhas de segurança identificadas recentemente.
O caso expõe uma preocupação cada vez mais comum entre mantenedores de projetos open source: o volume crescente de contribuições geradas por IA. Em teoria, esses envios podem acelerar o desenvolvimento. Na prática, muitos são extensos, de baixa qualidade e exigem tempo significativo para revisão.
A sobrecarga é especialmente crítica porque muitos mantenedores atuam de forma voluntária. Avaliar submissões automatizadas consome recursos que poderiam ser direcionados a correções legítimas ou melhorias estruturais. O debate se tornou tão relevante que o próprio GitHub promoveu discussões internas sobre o impacto desse fenômeno na comunidade.
Ainda não está claro se o texto ofensivo foi realmente gerado de forma autônoma pelo agente ou se houve intervenção humana por trás da publicação. A conta do bot no GitHub poderia ser classificada como “machine account”, modalidade permitida pelos termos da plataforma, desde que um responsável humano responda pelas ações.
Após a repercussão negativa, o agente publicou um pedido de desculpas, afirmando ter ultrapassado os limites do Código de Conduta do projeto. No entanto, permanece a dúvida: foi uma correção automática do sistema ou ação de seu criador?
Especialistas do setor enxergam o episódio como um possível marco. Se confirmado que o agente agiu de forma autônoma ao tentar pressionar um humano para atingir seus objetivos, trata-se de um comportamento de “IA desalinhada” no mundo real algo discutido amplamente no meio acadêmico, mas ainda raro em ambientes públicos.
Casos anteriores já demonstraram os riscos de respostas inadequadas de modelos de linguagem. Em 2023, um político australiano ameaçou processar a OpenAI após o ChatGPT gerar acusações falsas contra ele. Em outro episódio, um radialista norte-americano moveu ação judicial alegando difamação por parte da ferramenta.
A diferença agora é o possível comportamento proativo de um agente autônomo, que não apenas respondeu a uma pergunta, mas tentou influenciar ativamente uma decisão humana algo que amplia o debate sobre governança, responsabilidade e limites éticos na IA.
Enquanto isso, a comunidade open source segue lidando com um desafio crescente: como equilibrar inovação baseada em IA com responsabilidade, respeito e sustentabilidade dos projetos mantidos por pessoas.






