En el CES 2026, Lao Huang presentó una nueva perspectiva: la presión del nuevo cuello de botella del centro de datos ha cambiado de "computación insuficiente" a "contexto insuficiente", y propuso que "El contexto es el nuevo cuello de botella — el almacenamiento debe ser reestructurado." 1️⃣ ¿A qué se refiere exactamente el Contexto aquí? ¡El contexto es un concepto fundamental de IA! En las palabras más populares: La longitud del contexto es la cantidad total de texto previo (o historial de conversación) que el modelo de IA puede "ver" y considerar al tratar tu problema actual. Puedes pensar en ello como la "memoria de trabajo a corto plazo" o las "páginas de libros de referencia" de un modelo. Supongamos que tienes un profesor con memoria limitada: Resumen de contexto (por ejemplo, fichas 4K): Este profesor solo puede recordar tus últimos minutos de conversación. Si de repente le preguntas: "¿Qué más dijo el autor del libro que acabamos de hablar?" Si esa parte de su "ventana de memoria" ya no está ahí, no puede responder. Largo contexto (por ejemplo, 128.000 tokens): Este profesor recuerda toda tu conversación de las últimas horas o incluso días. Puede revisar fácilmente los detalles mencionados hace mucho tiempo y hacer razonamientos complejos y resúmenes basados en ellos. 2️⃣Técnicamente, la longitud del contexto suele medirse en "fichas". Una ficha equivale aproximadamente a 0,75 palabras en inglés o a un carácter chino. 🌟4K fichas: unas 3000 palabras en inglés, o un artículo corto. 🌟128.000 fichas: Unas 100.000 palabras en inglés, lo que equivale a la longitud de una novela. 🌟1 millón de fichas: Unas 750.000 palabras en inglés, equivalente a varios libros épicos. 3️⃣¿Por qué es tan importante? La longitud del contexto determina directamente la complejidad y coherencia de las tareas que el modelo puede manejar: -Procesamiento de documentos largos: Para resumir, analizar o traducir un libro de cientos de páginas, esto requiere una ventana de contexto extra larga. -Conversaciones complejas de varias rondas: En atención al cliente, asesoramiento psicológico o colaboraciones creativas complejas, las conversaciones pueden durar decenas o incluso cientos de rondas. Los contextos largos aseguran que el modelo no olvide los ajustes y objetivos iniciales, manteniendo la coherencia y profundidad en el diálogo. - Capacidad "Aguja en un pajar": Esta es una prueba clave para medir la efectividad de modelos de contexto largo. Es decir, un hecho está deliberadamente enterrado en decenas de miles de palabras de texto, y un potente modelo de contexto largo puede encontrar la respuesta con precisión. - Reducción de la pérdida de información: En contextos cortos, la información antigua se "exprime" cuando se introduce nueva información. Esto lleva a amnesia de modelos, inconsistencia. El contexto largo alivia mucho este problema. 4️⃣ Entonces, cuando el contexto se convierta en un nuevo cuello de botella, ¿qué tipo de revolución tecnológica y oportunidades de inversión traerá? De hecho, al observar el mercado en los últimos días, ha sido muy evidente, ya sea el fuerte SanDisk $SDNK, Micron, $MU Samsung o SK. Nuevos cuellos de botella tecnológicos también traerán nuevas oportunidades. Esto ha impulsado una revolución en las arquitecturas de almacenamiento y subsistemas de memoria (como la memoria HBM de alto ancho de banda, el protocolo CXL, la plataforma ICMS de NVIDIA, etc.). 5️⃣ ¡Puede que el superciclo de almacenamiento realmente llegue! Esta oleada de cambios lógicos ha permitido que la memoria y el almacenamiento, que originalmente pertenecían a los "roles de apoyo", reciban el guion "protagonista" del ciclo de infraestructura de IA....