DeepSeek OCR se cayó ... pero honestamente, Glyph [1], lanzado el mismo día, mostró algo más interesante: compresión de contexto de 3 a 4 veces y reducción de costos de infilling, sin impacto en el rendimiento en QA de contexto largo y resumido, lo cual es mucho menos trivial que OCR en muchos casos. Si eso se mantiene para tareas más difíciles y agentivas, sería un salto serio. En términos de costos: - El costo de infilling cae drásticamente - Los ahorros en decodificación son más modestos con DSA activado Así que el impacto depende de cuán pesado en entrada sea tu flujo de trabajo agentivo (por ejemplo, investigación profunda frente a codificación desde cero). También relevante: - Las extensiones de BLT [2,3] mejoraron la escalabilidad sobre la línea base de BPE; la compresión agresiva de Glyph ayuda principalmente al infilling, no mucho en decodificación (con DSA). - La BLT-ficación podría ayudar a Glyph a reducir aún más el costo de decodificación. - Los subagentes tienen un mayor impacto en la latencia y la reducción de la longitud del contexto. Simple pero poderoso. - Y cambiar los codificadores de visión por LMs pequeños sigue siendo una pregunta abierta.