Acho que fui demasiado desdenhoso em relação ao novo LLM de codificação Composer-1 da Cursor. Claro, é estritamente pior que o GPT-5 High Effort e o GPT-5-Codex, e, nesse sentido, quando estou a arquitetar e implementar projetos de código importantes, realmente não vejo um lugar para ele nos meus fluxos de trabalho. Por outro lado, é extremamente rápido (pergunto-me como conseguiram isso; estão a usar hardware Groq ou Cerebras? é porque o modelo é tão pequeno e eficiente? não tenho certeza), e isso por si só desbloqueia muitos novos fluxos de trabalho e técnicas de trabalho para quando o código não é tão crítico, ou quando estás a começar um novo projeto e não precisas de te preocupar em quebrar o código existente. É também muito, muito mais barato em comparação com qualquer variante do GPT-5. A combinação de ser muito mais rápido e muito mais barato cria uma diferença qualitativa em como podes usar o modelo que eu não apreciei totalmente antes. Quando o custo de iteração é tão baixo, tanto em termos de tempo como de dinheiro, podes iterar muitas mais vezes. Isso diminui o valor da "correção de uma só vez"; ou seja, a capacidade de um modelo como o GPT-5 Pro de acertar até mesmo uma tarefa de codificação complexa na primeira tentativa, sem bugs (embora mesmo esse modelo muitas vezes falhe neste teste muito rigoroso). Mas se consegues fechar o ciclo de depuração e rapidamente alimentar os erros/avisos de volta no modelo, e cada rodada de iteração leva de 20 segundos a um minuto (em vez de 5 a 10 vezes mais tempo, pelo menos usando o GPT-5 com alto esforço), então podes rapidamente resolver todos os erros descuidados que ele comete na primeira vez (ou mesmo na segunda, terceira ou quarta vez) e ainda terminar com código funcional mais cedo do que conseguirias com o GPT-5. Se estás a desenvolver algo no navegador, agora realmente podes fechar o ciclo completamente usando a nova Aba do Navegador da Cursor, que é de longe a melhor implementação deste tipo de coisa que já vi em qualquer ferramenta de codificação (está muito à frente do uso do Playwright MCP do Codex ou do Claude Code!). Tenho usado este prompt com grande efeito hoje: "Use a aba do navegador para explorar sistematicamente este aplicativo e usar a interface de uma maneira natural; enquanto isso acontece, fique atento a QUAISQUER avisos ou erros no console de desenvolvedor. Quando vires um, começa a diagnosticar e corrigir interativa e iterativamente os bugs e problemas e depois atualiza o aplicativo e verifica se o erro ou aviso está totalmente resolvido. Ao corrigir as coisas, foca em determinar a verdadeira causa raiz do bug e não em aplicar correções "falsas" de "band-aid"!" Onde esta abordagem realmente falha, no entanto, é nas fases conceituais e de planejamento, onde estás a descobrir o que fazer e a melhor maneira de implementá-lo a um nível elevado. Lá, a falta de pensamento profundo e exploração pode te colocar num caminho ruim que é difícil de recuperar. Isso é muito mais aparente quando a tarefa em que estás a trabalhar se desvia muito do "manifold de dados" das tarefas de codificação comuns. Se estás a fazer mais um simples site CRUD, então provavelmente não notarás muito. Se estás a tentar explorar novos caminhos numa simulação de vida artificial ou algo estranho assim, notarás isso muito. Mas há uma boa abordagem híbrida que funciona muito bem: combinar o modelo mais inteligente para planejamento com estes modelos rápidos e baratos para gerar iterações. Portanto, usa o GPT-5 Pro na aplicação do navegador para elaborar o teu plano e uma implementação inicial, depois cola isso na Cursor e começa a iterar, corrigir e melhorar. É muito melhor a modificar uma base forte existente do que a estabelecer essa base em si. Onde tudo isso realmente brilha é quando estás a brincar e explorar com algo divertido, num novo projeto onde não há prazos ou expectativas. Neste contexto, a velocidade é uma verdadeira mudança de jogo. Lembra-me daquela antiga pesquisa feita pela IBM no início dos anos 80 que analisou a latência com sistemas de computador, que descobriu que quando a latência fica abaixo de um certo nível mágico, como 50ms, ocorre uma grande mudança no comportamento porque o cérebro humano percebe que está a lidar com um "sistema ao vivo." E, inversamente, quando a latência sobe acima de um nível surpreendentemente modesto, como 500ms, há muito menos envolvimento, e é mentalmente desgastante e frustrante. Quando a latência dispara para alguns segundos ou mais, as pessoas tendem a desconectar-se mentalmente e torna-se uma luta manter-se envolvido. Ver o modelo de codificação responder em segundos e fazer uma série de 10 edições em menos de 15 segundos é uma experiência completamente diferente de esperar 5 minutos para que o GPT-5 de alto esforço processe algo metódicamente. ...