Eu fui um dos 16 devs neste estudo. Eu queria falar sobre minhas opiniões sobre as causas e estratégias de mitigação para a desaceleração do desenvolvimento. Vou dizer como um gancho "por que ouvir você?" que eu experimentei uma aceleração de IA de -38% em meus problemas atribuídos. Acho que a transparência ajuda a comunidade.
METR
METR11/07/2025
Fizemos um ensaio clínico randomizado e controlado para ver o quanto as ferramentas de codificação de IA aceleram desenvolvedores de código aberto experientes. Os resultados nos surpreenderam: os desenvolvedores pensavam que eram 20% mais rápidos com ferramentas de IA, mas na verdade eram 19% mais lentos quando tinham acesso à IA do que quando não tinham.
Em primeiro lugar, acho que a aceleração da IA está muito fracamente correlacionada com a capacidade de qualquer pessoa como dev. Todos os devs neste estudo são muito bons. Acho que tem mais a ver com cair em modos de falha, tanto na capacidade do LLM quanto no fluxo de trabalho do humano. Eu trabalho com uma tonelada de devs de pré-treinamento incríveis, e acho que as pessoas enfrentam muitos dos mesmos problemas. Gostamos de dizer que os LLMs são ferramentas, mas tratá-los mais como uma solução mágica. Literalmente, qualquer dev pode atestar a satisfação de finalmente depurar uma questão espinhosa. LLMs são um grande botão de atalho de dopamina que pode one-shot seu problema. Você continua pressionando o botão que tem 1% de chance de consertar tudo? É muito mais agradável do que a alternativa cansativa, pelo menos para mim.
Acho que casos de uso excessivo de LLM podem acontecer porque é fácil otimizar para o prazer percebido em vez de tempo para solução enquanto trabalha. Eu pressionando tab no cursor por 5 horas em vez de depurar por 1:
Em terceiro lugar, é super fácil se distrair no tempo de inatividade enquanto os LLMs estão gerando. A economia da atenção nas redes sociais é brutal, e acho que as pessoas passam 30 minutos rolando enquanto "esperam" por sua geração de 30 segundos. Tudo o que posso dizer sobre este é que devemos conhecer nossas próprias armadilhas e tentar preencher esse tempo de geração LLM de forma produtiva: - Se a tarefa exigir alto foco, passe esse tempo trabalhando em uma subtarefa ou pensando em perguntas de acompanhamento. Mesmo que o modelo responda à sua pergunta, o que mais eu não entendo? - Se a tarefa exigir pouco foco, faça outra pequena tarefa entretanto (responder a e-mail/folga, ler ou editar outro parágrafo, etc). Como sempre, pequenas etapas de higiene digital ajudam com isso (bloqueadores de sites, telefone no dnd, etc). Desculpe ser um grampy, mas funciona para mim :)
Algumas declarações finais: - METR é uma organização maravilhosa para trabalhar, e eles são cientistas fortes. Adorei participar neste estudo e ler os seus resultados. - Eu não sou um guru LLM tentando pregar. Pense nisso como eu publicando uma entrada de diário pessoal e esperando que outros possam se beneficiar da minha introspeção.
1,96M