Na CES 2026, Lao Huang apresentou uma nova perspectiva: a pressão do novo gargalo do data center mudou de "computação insuficiente" para "contexto insuficiente", e propôs que "O contexto é o novo gargalo — o armazenamento precisa ser rearquitetado." 1️⃣ Então, exatamente a que Contexto se refere aqui? Contexto é um conceito central de IA! Nas palavras mais populares: O comprimento do contexto é a quantidade total de texto anterior (ou histórico de conversas) que o modelo de IA pode "ver" e considerar ao lidar com seu problema atual. Você pode pensar nisso como a "memória de trabalho de curto prazo" ou "páginas de livro de referência" de um modelo. Digamos que você tenha um professor com memória limitada: Contexto curto (por exemplo, 4K tokens): Esse professor só consegue lembrar dos seus últimos minutos de conversa. Se você de repente perguntar a ele: "O que mais o autor do livro que acabamos de discutir?" Se essa parte de sua "janela de memória" não está mais lá, ele não pode responder. Contexto longo (por exemplo, 128K tokens): Esse professor lembra de toda a sua conversa das últimas horas ou até dias. Ele pode facilmente revisar os detalhes mencionados há muito tempo e criar raciocínios complexos e resumos baseados neles. 2️⃣Tecnicamente, o comprimento do contexto geralmente é medido em "tokens". Uma ficha equivale aproximadamente a 0,75 palavras em inglês ou um caractere chinês. 🌟Tokens 4K: cerca de 3000 palavras em inglês, ou um artigo curto. 🌟128K tokens: Cerca de 100.000 palavras em inglês, o que equivale ao tamanho de um romance. 🌟1 milhão de fichas: Cerca de 750.000 palavras em inglês, equivalente a vários livros épicos. 3️⃣Por que é tão importante? O comprimento do contexto determina diretamente a complexidade e a coerência das tarefas que o modelo pode suportar: -Processamento de documentos longos: Para resumir, analisar ou traduzir um livro de centenas de páginas, isso requer uma janela de contexto extra longa. -Conversas complexas em várias rodadas: No atendimento ao cliente, aconselhamento psicológico ou colaborações criativas complexas, as conversas podem durar dezenas ou até centenas de rodadas. Contextos longos garantem que o modelo não esqueça as configurações e objetivos iniciais, mantendo consistência e profundidade no diálogo. - Capacidade "Agulha no Palheiro": Este é um teste fundamental para medir a eficácia de modelos de contexto longo. Ou seja, um fato é deliberadamente enterrado em dezenas de milhares de palavras de texto, e um modelo poderoso de longo contexto pode encontrar a resposta com precisão. - Redução da perda de informação: Em contextos curtos, informações antigas são "espremidas" quando novas informações são inseridas. Isso leva à amnésia dos modelos, inconsistência. O contexto longo alivia muito esse problema. 4️⃣ Então, quando o contexto se tornar um novo gargalo, que tipo de revolução tecnológica e oportunidades de investimento isso trará? Na verdade, olhando para o mercado nos últimos dias, ficou muito óbvio, seja o forte SanDisk $SDNK, Micron, $MU Samsung e SK. Novos gargalos tecnológicos também trarão novas oportunidades. Isso impulsionou uma revolução nas arquiteturas de armazenamento e subsistemas de memória (como memória HBM de alta largura de banda, protocolo CXL, plataforma ICMS da NVIDIA, etc.). 5️⃣ O superciclo de armazenamento pode realmente chegar! Essa onda de mudanças lógicas permitiu que a memória e o armazenamento, que originalmente pertenciam aos "papéis de apoio", obtivessem o roteiro "protagonista" do ciclo de infraestrutura de IA....