Post
O Perigo da Preguica Perdida: Por Que Sua IA Escreve Codigo Demais
Bryan Cantrill argumenta que LLMs nao tem a maior virtude do programador — a preguica. Quando escrever codigo nao custa nada, tudo fica maior. Mas fica melhor?
Sabe aquele amigo que, quando voce pede ajuda pra mudar de casa, aparece com dezessete caixas, uma etiquetadora, fita colorida e uma planilha pra rastrear a posicao dos moveis — quando tudo que voce precisava era uma caminhonete e dois bracos?
E exatamente isso que LLMs fazem com seu codigo. E Bryan Cantrill acabou de escrever o melhor ensaio que eu ja li sobre por que isso e um problema.
A Virtude de Ser Preguicoso
Larry Wall — o criador do Perl — definiu tres virtudes de um grande programador: preguica, impaciencia e arrogancia. Parece piada. Nao e.
Preguica, na definicao do Wall, nao e sobre nao fazer nada. E sobre se recusar a fazer trabalho desnecessario. E o instinto que diz "prefiro gastar quatro horas construindo uma abstracao elegante do que copiar e colar vinte linhas dez vezes." E a friccao que te forca a pensar antes de escrever.
Cantrill, CTO da Oxide Computer Company e um dos engenheiros de sistemas mais respeitados que existem, argumenta que essa friccao e uma feature, nao um bug. Escrever codigo e dificil. Essa dificuldade e o que separa um sistema limpo e sustentavel de um monte de espaguete tecnicamente funcional.
O Problema: LLMs Nao Cansam
Aqui esta o ponto central. Quando voce senta pra escrever codigo, tem um orcamento limitado — tempo, energia, atencao. Esse orcamento te forca a fazer escolhas. Eu realmente preciso dessa funcao? Posso simplificar essa interface? Tem como fazer isso em cinco linhas ao inves de cinquenta?
LLMs nao tem orcamento. Trabalho nao custa nada pra elas. Entao elas fazem tudo.
Como o Cantrill coloca:
"LLMs nao sentem necessidade de otimizar para o proprio tempo (ou de ninguem), e vao alegremente empilhando mais e mais sobre um bolo de camadas de lixo."
Isso nao e uma falha da tecnologia. E uma caracteristica fundamental. A mesma coisa que torna LLMs uteis — gerar codigo incansavelmente — e o que as torna perigosas se ninguem estiver olhando.
A Ostentacao das 37.000 Linhas
O exemplo mais afiado do Cantrill e o do empreendedor Garry Tan, que se gabou publicamente de ter gerado 37.000 linhas de codigo em um unico dia usando ferramentas de IA. Compartilhou screenshots com orgulho. Disse que estava "ainda acelerando."
Pra dar contexto: o DTrace — uma das ferramentas de debugging mais importantes da programacao de sistemas, usada no Solaris, macOS, FreeBSD e Linux — contem aproximadamente 60.000 linhas de codigo. No total. Construido ao longo de anos por um time de engenheiros experts.
| Linhas de Codigo | Tempo | Resultado | |
|---|---|---|---|
| Sessao de IA do Garry Tan | 37.000 | 1 dia | Multiplos frameworks de teste, um app Hello World em Rails, um editor de texto, logos redundantes |
| DTrace (codebase inteira) | ~60.000 | Anos | Ferramenta de debugging padrao da industria usada em grandes sistemas operacionais |
Quando Cantrill examinou o que aquelas 37.000 linhas realmente continham, encontrou: multiplos frameworks de teste, um app Hello World em Rails, um editor de texto escondido e variantes redundantes de logo. Nao eram 37.000 linhas de valor — eram 37.000 linhas de coisas.
O problema nao e que IA consegue gerar muito codigo. E que gerar muito codigo parece produtivo. Metricas de vaidade viram armadilhas invisiveis.
O Chef e o Supermercado
Penso assim: um grande chef nao compra todo ingrediente do supermercado. Ele compra exatamente o que o prato precisa, e sabe o que deixar na prateleira. Essa restricao — essa preguica sobre trabalho desnecessario — e o que faz o prato ser incrivel.
Agora imagina um chef com orcamento ilimitado, sem paladar e energia infinita. Ele encheria a cozinha do chao ao teto. Todo tempero, todo corte de carne, toda trufa importada. A cozinha parece impressionante. A refeicao e incoerente.
LLMs sao o chef de orcamento ilimitado. Elas vao te dar tudo. Seu trabalho e ser o preguicoso — saber o que o prato realmente precisa e mandar o resto de volta.
O Contra-argumento Honesto
A discussao no Hacker News trouxe uma critica justa: isso pode ser um problema de ferramentas, nao algo fundamental.
Prompts melhores, linting mais rigoroso, pipelines de CI/CD mais inteligentes e frameworks de agentes que impoem restricoes poderiam — em teoria — ensinar LLMs a serem mais preguicosas. Alguns comentaristas argumentam que pressoes de eficiencia vao naturalmente produzir abstracoes melhores com o tempo, um tipo de "selecao natural baseada em tokens."
Outros fazem uma distincao util entre vibe coding (gerar sem entender) e desenvolvimento intencional assistido por IA (usar IA como contribuidor, revisando o output com o mesmo rigor que voce aplicaria ao pull request de um dev junior). O problema nao e a ferramenta — e tratar o output da ferramenta como pronto ao inves de rascunho.
Pontos justos. Mas o contra-argumento do Cantrill e convincente: os defaults importam. Se a tendencia natural da ferramenta e produzir mais ao inves de melhor, voce precisa de vigilancia constante pra combater isso. E vigilancia custa caro — o que e ironico quando o objetivo era economizar esforco.
O Que Isso Significa Pra Voce
Se voce escreve codigo: leia o ensaio. Serio. E uma das melhores articulacoes que ja vi de algo que muitos devs sentem mas nao conseguem nomear — o desconforto quando codigo gerado por IA funciona mas nao parece certo.
Se voce nao escreve codigo: a licao ainda se aplica. Ferramentas de IA em qualquer area vao tender ao mais. Mais texto. Mais slides. Mais opcoes. Mais funcionalidades. As pessoas que vao se destacar nao serao as que geram mais — serao as que sabem o que cortar.
Preguica, no fim das contas, e uma habilidade. E talvez seja a unica que a IA nao consegue aprender.
Sources
- The Peril of Laziness Lost — Bryan Cantrill — o ensaio original que inspirou este post
- Discussao no Hacker News — reacao da comunidade com contra-argumentos e nuances
- Destaque do Simon Willison — citacao-chave e divulgacao no blog do Willison