Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Canal TG: https://t.co/GJr2Qy5lAb
Columna Futu: https://t.co/3VePAbXwhr
Es cierto
Una de las razones por las que no quiero especular es que no quiero que mi vida diaria esté envuelta en símbolos de bajo explosivismo y noticias vulgares color melocotón.
Espero que cuando la gente me pregunte qué estoy investigando, pueda decir abiertamente lo que estoy mirando.
El mercado bursátil estadounidense está investigando la IA, y BSC está estudiando tres caminos
163
En el CES 2026, Lao Huang presentó una nueva perspectiva: la presión del nuevo cuello de botella del centro de datos ha cambiado de "computación insuficiente" a "contexto insuficiente", y propuso que "El contexto es el nuevo cuello de botella — el almacenamiento debe ser reestructurado."
1️⃣ ¿A qué se refiere exactamente el Contexto aquí?
¡El contexto es un concepto fundamental de IA! En las palabras más populares:
La longitud del contexto es la cantidad total de texto previo (o historial de conversación) que el modelo de IA puede "ver" y considerar al tratar tu problema actual.
Puedes pensar en ello como la "memoria de trabajo a corto plazo" o las "páginas de libros de referencia" de un modelo.
Supongamos que tienes un profesor con memoria limitada:
Resumen de contexto (por ejemplo, fichas 4K): Este profesor solo puede recordar tus últimos minutos de conversación. Si de repente le preguntas: "¿Qué más dijo el autor del libro que acabamos de hablar?" Si esa parte de su "ventana de memoria" ya no está ahí, no puede responder.
Largo contexto (por ejemplo, 128.000 tokens): Este profesor recuerda toda tu conversación de las últimas horas o incluso días. Puede revisar fácilmente los detalles mencionados hace mucho tiempo y hacer razonamientos complejos y resúmenes basados en ellos.
2️⃣Técnicamente, la longitud del contexto suele medirse en "fichas". Una ficha equivale aproximadamente a 0,75 palabras en inglés o a un carácter chino.
🌟4K fichas: unas 3000 palabras en inglés, o un artículo corto.
🌟128.000 fichas: Unas 100.000 palabras en inglés, lo que equivale a la longitud de una novela.
🌟1 millón de fichas: Unas 750.000 palabras en inglés, equivalente a varios libros épicos.
3️⃣¿Por qué es tan importante?
La longitud del contexto determina directamente la complejidad y coherencia de las tareas que el modelo puede manejar:
-Procesamiento de documentos largos: Para resumir, analizar o traducir un libro de cientos de páginas, esto requiere una ventana de contexto extra larga.
-Conversaciones complejas de varias rondas: En atención al cliente, asesoramiento psicológico o colaboraciones creativas complejas, las conversaciones pueden durar decenas o incluso cientos de rondas. Los contextos largos aseguran que el modelo no olvide los ajustes y objetivos iniciales, manteniendo la coherencia y profundidad en el diálogo.
- Capacidad "Aguja en un pajar": Esta es una prueba clave para medir la efectividad de modelos de contexto largo. Es decir, un hecho está deliberadamente enterrado en decenas de miles de palabras de texto, y un potente modelo de contexto largo puede encontrar la respuesta con precisión.
- Reducción de la pérdida de información: En contextos cortos, la información antigua se "exprime" cuando se introduce nueva información. Esto lleva a amnesia de modelos, inconsistencia. El contexto largo alivia mucho este problema.
4️⃣ Entonces, cuando el contexto se convierta en un nuevo cuello de botella, ¿qué tipo de revolución tecnológica y oportunidades de inversión traerá?
De hecho, al observar el mercado en los últimos días, ha sido muy evidente, ya sea el fuerte SanDisk $SDNK, Micron, $MU Samsung o SK. Nuevos cuellos de botella tecnológicos también traerán nuevas oportunidades.
Esto ha impulsado una revolución en las arquitecturas de almacenamiento y subsistemas de memoria (como la memoria HBM de alto ancho de banda, el protocolo CXL, la plataforma ICMS de NVIDIA, etc.).
5️⃣ ¡Puede que el superciclo de almacenamiento realmente llegue!
Esta oleada de cambios lógicos ha permitido que la memoria y el almacenamiento, que originalmente pertenecían a los "roles de apoyo", reciban el guion "protagonista" del ciclo de infraestructura de IA.
Sector de memoria ($MU, Samsung, Hynix): Ya no es solo una acción cíclica que fluctúa con los teléfonos móviles/PCs, sino la "piedra angular de expansión" de los sistemas de IA.
Almacenamiento de Alto Rendimiento ($SNDK/WDC): La lógica de los SSD empresariales pasa de una "carrera de capacidad" a una "carrera de aceleración de inferencia".
Redes y DPUs (NVIDIA en sí): Lao Huang conecta memoria, almacenamiento y GPUs a través de BlueField-4 y Spectrum-X, lo que significa que NVIDIA no solo vende chips, sino que también define las reglas de "cómo fluyen los datos en la máquina".
4
Populares
Ranking
Favoritas
