En CES 2026, 老黄 presentó un nuevo punto de vista: la nueva presión de cuello de botella en los centros de datos ha pasado de "insufficient compute" a "insufficient context", y propuso que "el contexto es el nuevo cuello de botella: el almacenamiento debe ser reestructurado." 1️⃣ ¿A qué se refiere específicamente el Contexto aquí? El contexto es un concepto central en la IA. Para explicarlo de la manera más sencilla: La longitud del contexto es la cantidad total de texto anterior (o historial de conversación) que el modelo de IA puede "ver" y considerar al abordar tu problema actual. Puedes imaginarlo como la "memoria de trabajo a corto plazo" del modelo o el "número de páginas de referencia". Supón que tienes un profesor con memoria limitada: Longitud de contexto corta (como 4K tokens): este profesor solo puede recordar la conversación de los últimos minutos. Si de repente le preguntas: "¿Qué más ha escrito el autor del libro que discutimos antes?", si esa parte ya no está en su "ventana de memoria", no podrá responder. Longitud de contexto larga (como 128K tokens): este profesor puede recordar la conversación completa de las últimas horas o incluso días. Puede revisar fácilmente detalles mencionados hace mucho tiempo y, sobre esa base, realizar inferencias y resúmenes complejos. 2️⃣ Técnicamente, la longitud del contexto se mide generalmente en "tokens". Un token equivale aproximadamente a 0.75 palabras en inglés o un carácter en chino. 🌟 4K tokens: alrededor de 3000 palabras en inglés, o un ensayo corto. 🌟 128K tokens: alrededor de 100,000 palabras en inglés, equivalente a la longitud de una novela de tamaño medio. 🌟 1M tokens: alrededor de 750,000 palabras en inglés, equivalente a varios libros extensos. 3️⃣ ¿Por qué es tan importante? La longitud del contexto determina directamente la complejidad y coherencia de las tareas que el modelo puede manejar: - Procesamiento de documentos largos: para resumir, analizar o traducir un libro de cientos de páginas, se necesita una ventana de contexto extremadamente larga. - Diálogos complejos y múltiples turnos: en atención al cliente, asesoramiento psicológico o colaboración creativa compleja, las conversaciones pueden durar decenas o incluso cientos de turnos. Un contexto largo asegura que el modelo no olvide los objetivos y configuraciones iniciales, manteniendo la coherencia y profundidad del diálogo. - Capacidad de "buscar una aguja en un pajar": esta es una prueba clave para medir la efectividad de los modelos de largo contexto. Es decir, enterrar intencionadamente un hecho en un texto de miles de palabras, un modelo de largo contexto potente puede encontrar la respuesta con precisión. - Reducción de la pérdida de información: en un contexto corto, cuando se introduce nueva información, la información antigua puede ser "expulsada". Esto puede llevar a que el modelo olvide o tenga contradicciones. Un contexto largo mitiga enormemente este problema. 4️⃣ Entonces, cuando el contexto se convierte en el nuevo cuello de botella, ¿qué tipo de revolución tecnológica y oportunidades de inversión traerá? De hecho, lo que hemos visto en los mercados estos días ya es muy evidente, ya sea el fuerte rendimiento de SanDisk $SDNK, Micron $MU, Samsung, o SK. El nuevo cuello de botella tecnológico también traerá nuevas oportunidades. Esto ha impulsado una revolución en la arquitectura de almacenamiento y subsistemas de memoria (como la memoria de alto ancho de banda HBM, el protocolo CXL, la plataforma ICMS de NVIDIA, etc.). 5️⃣ ¡El superciclo del almacenamiento podría estar realmente llegando! Este cambio de lógica ha permitido que la memoria y el almacenamiento, que originalmente eran "secundarios", asuman el papel protagónico en el ciclo de infraestructura de IA. El sector de la memoria ($MU, Samsung, SK Hynix): ya no es solo una acción cíclica que fluctúa con los teléfonos móviles/PC, sino que es la "base de expansión" de los sistemas de IA....