Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Na CES 2026, Lao Huang apresentou uma nova perspectiva: a pressão do novo gargalo do data center mudou de "computação insuficiente" para "contexto insuficiente", e propôs que "O contexto é o novo gargalo — o armazenamento precisa ser rearquitetado."
1️⃣ Então, exatamente a que Contexto se refere aqui?
Contexto é um conceito central de IA! Nas palavras mais populares:
O comprimento do contexto é a quantidade total de texto anterior (ou histórico de conversas) que o modelo de IA pode "ver" e considerar ao lidar com seu problema atual.
Você pode pensar nisso como a "memória de trabalho de curto prazo" ou "páginas de livro de referência" de um modelo.
Digamos que você tenha um professor com memória limitada:
Contexto curto (por exemplo, 4K tokens): Esse professor só consegue lembrar dos seus últimos minutos de conversa. Se você de repente perguntar a ele: "O que mais o autor do livro que acabamos de discutir?" Se essa parte de sua "janela de memória" não está mais lá, ele não pode responder.
Contexto longo (por exemplo, 128K tokens): Esse professor lembra de toda a sua conversa das últimas horas ou até dias. Ele pode facilmente revisar os detalhes mencionados há muito tempo e criar raciocínios complexos e resumos baseados neles.
2️⃣Tecnicamente, o comprimento do contexto geralmente é medido em "tokens". Uma ficha equivale aproximadamente a 0,75 palavras em inglês ou um caractere chinês.
🌟Tokens 4K: cerca de 3000 palavras em inglês, ou um artigo curto.
🌟128K tokens: Cerca de 100.000 palavras em inglês, o que equivale ao tamanho de um romance.
🌟1 milhão de fichas: Cerca de 750.000 palavras em inglês, equivalente a vários livros épicos.
3️⃣Por que é tão importante?
O comprimento do contexto determina diretamente a complexidade e a coerência das tarefas que o modelo pode suportar:
-Processamento de documentos longos: Para resumir, analisar ou traduzir um livro de centenas de páginas, isso requer uma janela de contexto extra longa.
-Conversas complexas em várias rodadas: No atendimento ao cliente, aconselhamento psicológico ou colaborações criativas complexas, as conversas podem durar dezenas ou até centenas de rodadas. Contextos longos garantem que o modelo não esqueça as configurações e objetivos iniciais, mantendo consistência e profundidade no diálogo.
- Capacidade "Agulha no Palheiro": Este é um teste fundamental para medir a eficácia de modelos de contexto longo. Ou seja, um fato é deliberadamente enterrado em dezenas de milhares de palavras de texto, e um modelo poderoso de longo contexto pode encontrar a resposta com precisão.
- Redução da perda de informação: Em contextos curtos, informações antigas são "espremidas" quando novas informações são inseridas. Isso leva à amnésia dos modelos, inconsistência. O contexto longo alivia muito esse problema.
4️⃣ Então, quando o contexto se tornar um novo gargalo, que tipo de revolução tecnológica e oportunidades de investimento isso trará?
Na verdade, olhando para o mercado nos últimos dias, ficou muito óbvio, seja o forte SanDisk $SDNK, Micron, $MU Samsung e SK. Novos gargalos tecnológicos também trarão novas oportunidades.
Isso impulsionou uma revolução nas arquiteturas de armazenamento e subsistemas de memória (como memória HBM de alta largura de banda, protocolo CXL, plataforma ICMS da NVIDIA, etc.).
5️⃣ O superciclo de armazenamento pode realmente chegar!
Essa onda de mudanças lógicas permitiu que a memória e o armazenamento, que originalmente pertenciam aos "papéis de apoio", obtivessem o roteiro "protagonista" do ciclo de infraestrutura de IA....
Melhores
Classificação
Favoritos
