Repetir tu aviso puede hacer que los LLM sean significativamente más precisos. Google acaba de mostrar un cambio trivial que gana 47 de 70 pruebas. Sin tokens extra. Sin latencia añadida. Cero pérdidas reportadas. 𝗥𝗲𝗽𝗲𝘁𝗶𝗰𝗶𝗼𝗻 𝗱𝗲 𝗽𝗿𝗼𝗺𝗽𝘁 𝗶𝗺𝗽𝗿𝗼𝘃𝗲 𝗹𝗮 𝗮𝗰𝗰𝘂𝗿𝗮𝗰𝗶𝗮 El método es simple. Envía la misma entrada exacta dos veces, una tras otra. Los modelos de lenguaje leen los tokens en orden. Las partes iniciales se procesan sin el contexto completo. En el segundo pase, la imagen completa ya existe. Las predicciones se vuelven más estables y más precisas. 𝗦𝗲 𝗮𝗰𝘁𝘂𝗮 𝗲𝗻 𝗺𝗼𝗱𝗲𝗹𝗼𝘀 𝗺𝗮𝗷𝗼𝗿𝗲𝘀 El documento prueba sistemas populares a gran escala. Cada modelo evaluado mejora sin razonamiento habilitado. Resultados clave: > 47 victorias de 70 puntos de referencia > Cero regresiones de precisión > Sin aumento en la longitud de salida > Sin costo de latencia medible 𝗘𝘀 𝗽𝗼𝘀𝗶𝗯𝗹𝗲 𝗹𝗮 𝗱𝗲𝗽𝗹𝗼𝘁𝗮𝗰𝗶𝗼𝗻 𝗱𝗲 𝗱𝗿𝗼𝗽-𝗶𝗻 Las salidas mantienen el mismo formato. Las canalizaciones existentes permanecen sin cambios. Obtienes mayor precisión al copiar y pegar una vez.