Assistentes de IA ajudam no código mas aceleram menos do que prometem
- Cyber Security Brazil
- 18 de nov. de 2025
- 2 min de leitura

A rápida expansão da inteligência artificial está transformando a maneira como softwares são desenvolvidos, testados e mantidos — mas não de forma tão revolucionária quanto muitos acreditam. Segundo o testemunho de um engenheiro de software experiente, ferramentas de IA, especialmente assistentes de codificação como o GitHub Copilot, ainda estão longe de substituir desenvolvedores ou de entregar a prometida economia de tempo.
O engenheiro, que atua na área desde os anos 1990 e já programou em linguagens como Visual Basic, Delphi, C/C++ e C#, relata que usa IA de forma moderada e ressalta que as sugestões desses assistentes muitas vezes são incompletas, genéricas ou simplesmente erradas. Embora reconheça que a IA funciona bem em perguntas diretas e tarefas pontuais, ele afirma que na maioria dos casos a tecnologia não reduz significativamente o esforço de desenvolvimento, especialmente em projetos grandes e legados, que exigem rigor, padronização e manutenção a longo prazo.
O profissional alerta ainda para uma mudança cultural e de aprendizado entre novos desenvolvedores. Com assistentes de IA integrados diretamente aos IDEs modernos, há o risco de que iniciantes deixem de desenvolver raciocínio crítico e habilidades fundamentais de resolução de problemas. “Se a IA entrega respostas rápidas e confiantes, mesmo quando estão erradas, quem vai aprender a encarar os desafios mais difíceis e criar soluções realmente eficientes?”, questiona.
O engenheiro cita exemplos próprios: ao pedir ao Copilot um trecho de código em Delphi para identificar o aplicativo associado a arquivos PDF no Windows, a IA ofereceu uma resposta incompleta e tecnicamente incorreta, que poderia ter causado falhas em ambiente de produção. Por outro lado, a ferramenta foi útil em uma dúvida simples sobre suprimir erros de script no componente WebBrowser em C#, demonstrando que a IA funciona bem em tarefas isoladas, mas perde qualidade em cenários complexos.
Ele também relata a conversa com um gerente de testes de uma grande empresa britânica, que afirmou que a IA muitas vezes gera retrabalho, exigindo múltiplas revisões de prompts e reescrita completa de testes sugeridos — o que torna o processo mais lento, e não mais rápido, para equipes experientes.
Além das falhas técnicas, o engenheiro destaca preocupações mais amplas: o poder crescente das big techs, o uso massivo de dados para treinar modelos de IA e o risco de dependência excessiva dessas ferramentas. Ele compara o cenário ao vício em smartphones, ressaltando que muitas pessoas já não conseguem navegar sem aplicativos como Google Maps. Segundo ele, o mesmo pode acontecer com a IA: “Antes de abrir o assistente de código, tente resolver o problema você mesmo. A ferramenta que você usa hoje pode não estar disponível amanhã.”
Via - TR






