Repetir tu indicación puede hacer que los LLMs sean mucho más precisos. Google acaba de mostrar un cambio trivial que gana 47 de 70 pruebas. Sin fichas extra. Sin latencia añadida. Cero pérdidas reportadas. La repetición rápida mejora la precisión El método es sencillo. Envía exactamente la misma entrada dos veces, una tras otra. Los modelos de lenguaje leen los tokens en orden. Las primeras piezas se procesan sin contexto completo. En la segunda pasada, ya existe la imagen completa. Las predicciones se vuelven más estables y precisas. Funciona en modelos principales El artículo pone a prueba sistemas populares a gran escala. Cada modelo evaluado mejora sin habilitar el razonamiento. Resultados clave: > 47 victorias de 70 benchmarks > Regresiones de precisión cero > Sin aumento en la longitud de salida > No hay coste de latencia medible Permite el despliegue sin cita previa Las salidas mantienen el mismo formato. Los oleoductos existentes permanecen sin cambios. Consigues mayor precisión copiando y pegando una vez.