Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Chaîne TG : https://t.co/GJr2Qy5lAb
Chronique Futu : https://t.co/3VePAbXwhr
L'une des raisons pour lesquelles je ne veux pas trader des cryptomonnaies est que je ne veux pas que ma vie quotidienne soit mélangée avec ces symboles ridicules, ces nouvelles de bas étage.
J'espère que lorsque les gens me demanderont ce que je recherche, je pourrai dire ouvertement ce que je regarde.
Recherche sur l'IA sur le marché américain, recherche sur BSC dans les trois directions.
168
Lors du CES 2026, 老黄 a proposé un nouveau point de vue : la nouvelle pression sur les centres de données, qui était auparavant due à "l'insuffisance de calcul", est devenue "l'insuffisance de contexte", affirmant que "le contexte est le nouveau goulot d'étranglement - le stockage doit être réarchitecturé."
1️⃣ Que signifie exactement le contexte ici ?
Le contexte est un concept central de l'IA ! Pour l'expliquer de manière simple :
La longueur du contexte est la quantité totale de texte précédent (ou d'historique de conversation) que le modèle d'IA peut "voir" et prendre en compte lors du traitement de votre problème actuel.
Vous pouvez l'imaginer comme la "mémoire de travail à court terme" du modèle ou le "nombre de pages de référence".
Supposons que vous ayez un professeur à la mémoire limitée :
Longueur de contexte courte (comme 4K tokens) : ce professeur ne peut se souvenir que de votre conversation des dernières minutes. Si vous lui demandez soudain : "Que d'autre a écrit l'auteur du livre dont nous venons de discuter ?", s'il n'a plus cette partie dans sa "fenêtre de mémoire", il ne pourra pas répondre.
Longueur de contexte longue (comme 128K tokens) : ce professeur peut se souvenir de l'intégralité de votre conversation des dernières heures, voire des derniers jours. Il peut facilement se rappeler des détails mentionnés il y a longtemps et effectuer des raisonnements et des résumés complexes sur cette base.
2️⃣ Techniquement, la longueur du contexte est généralement mesurée en "tokens". Un token équivaut à environ 0,75 mot anglais ou un caractère chinois.
🌟4K tokens : environ 3000 mots anglais, ou un court article.
🌟128K tokens : environ 100 000 mots anglais, équivalent à la longueur d'un roman de taille moyenne.
🌟1M tokens : environ 750 000 mots anglais, équivalent à plusieurs longs ouvrages.
3️⃣ Pourquoi est-ce si important ?
La longueur du contexte détermine directement la complexité et la cohérence des tâches que le modèle peut traiter :
- Traitement de documents longs : pour résumer, analyser ou traduire un livre de plusieurs centaines de pages, une fenêtre de contexte très longue est nécessaire.
- Dialogues complexes en plusieurs tours : dans le service client, la consultation psychologique ou la collaboration créative complexe, les conversations peuvent durer des dizaines, voire des centaines de tours. Un long contexte peut garantir que le modèle n'oublie pas les paramètres et objectifs initiaux, maintenant ainsi la cohérence et la profondeur de la conversation.
- Capacité à "trouver une aiguille dans une botte de foin" : c'est un test clé pour évaluer l'efficacité des modèles à long contexte. C'est-à-dire, enterrer délibérément un fait dans un texte de plusieurs milliers de mots, un puissant modèle à long contexte peut trouver la réponse avec précision.
- Réduction de la perte d'information : dans un contexte court, lorsque de nouvelles informations sont introduites, les anciennes informations sont "chassées". Cela peut entraîner une perte de mémoire et des incohérences. Un long contexte atténue considérablement ce problème.
4️⃣ Que se passe-t-il lorsque le contexte devient le nouveau goulot d'étranglement, et quelles révolutions technologiques et opportunités d'investissement cela pourrait-il engendrer ?
En fait, les tendances des derniers jours sont déjà très claires, que ce soit avec le puissant SanDisk $SDNK, Micron $MU, Samsung ou SK. Le nouveau goulot d'étranglement technologique apportera également de nouvelles opportunités.
Cela a conduit à une révolution dans l'architecture de stockage et les sous-systèmes de mémoire (comme la mémoire à large bande passante HBM, le protocole CXL, la plateforme ICMS de NVIDIA, etc.).
5️⃣ Un super cycle de stockage pourrait vraiment être à nos portes !
Ce changement de logique a permis à la mémoire et au stockage, qui étaient auparavant considérés comme des "secondaires", de devenir les "principaux acteurs" du cycle des infrastructures d'IA.
Le secteur de la mémoire ($MU, Samsung, Hynix) : ne se limite plus à être des actions cycliques fluctuant avec les smartphones/PC, mais devient la "base d'expansion" des systèmes d'IA.
Le stockage haute performance ($SNDK/WDC) : la logique des SSD de niveau entreprise passe d'une "compétition de capacité" à une "compétition d'accélération d'inférence".
Réseau et DPU (NVIDIA elle-même) : 老黄 a relié la mémoire, le stockage et le GPU via BlueField-4 et Spectrum-X, ce qui signifie que NVIDIA ne vend pas seulement des puces, mais définit également les règles de **"comment les données circulent à l'intérieur des machines"**.
9
Meilleurs
Classement
Favoris
