Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
TG-kanaal: https://t.co/GJr2Qy5lAb
Futu-kolom: https://t.co/3VePAbXwhr
Een van de redenen waarom ik echt niet wil traden met crypto, is omdat ik niet wil dat mijn dagelijks leven en al die lage, vulgaire symbolen, samen met schunnige roddels, met elkaar vermengd worden.
Ik hoop dat als anderen me vragen waar ik mee bezig ben, ik openlijk kan zeggen wat ik aan het bestuderen ben.
Onderzoek naar AI op de Amerikaanse aandelenmarkt, onderzoek naar de BSC in de onderste drie routes.
169
Op CES 2026 stelde 老黄 een nieuw standpunt voor: de nieuwe knelpuntdruk op datacenters is veranderd van "onvoldoende rekencapaciteit" naar "onvoldoende context", en hij stelde voor: "Context is de nieuwe bottleneck - opslag moet opnieuw worden ontworpen."
1️⃣ Wat wordt hier precies bedoeld met Context?
Context is een zeer kernachtig AI-concept! Om het in de eenvoudigste bewoordingen uit te leggen:
De contextlengte is de totale hoeveelheid tekst (of gespreksgeschiedenis) die het AI-model kan "zien" en in overweging kan nemen bij het verwerken van jouw huidige vraag.
Je kunt het zien als het "korte termijn geheugen" van het model of het "aantal pagina's in een referentieboek".
Stel je voor dat je een leraar hebt met een beperkte geheugen:
Korte contextlengte (zoals 4K tokens): deze leraar kan alleen de gesprekken van de afgelopen paar minuten onthouden. Als je hem plotseling vraagt: "Wat heeft de auteur van het boek waar we het net over hadden nog meer geschreven?", en als die informatie niet meer in zijn "geheugenvenster" zit, kan hij niet antwoorden.
Lange contextlengte (zoals 128K tokens): deze leraar kan de volledige gesprekken van de afgelopen paar uur of zelfs dagen onthouden. Hij kan gemakkelijk terugkijken naar details die lang geleden zijn genoemd en op basis daarvan complexe redeneringen en samenvattingen maken.
2️⃣ Technisch gezien wordt de contextlengte meestal gemeten in "tokens". Een token is ongeveer gelijk aan 0,75 Engelse woorden of één Chinees karakter.
🌟4K tokens: ongeveer 3000 Engelse woorden, of een kort artikel.
🌟128K tokens: ongeveer 100.000 Engelse woorden, wat overeenkomt met de lengte van een middelgrote roman.
🌟1M tokens: ongeveer 750.000 Engelse woorden, wat overeenkomt met meerdere lange boeken.
3️⃣ Waarom is het zo belangrijk?
De contextlengte bepaalt direct de complexiteit en samenhang van de taken die het model kan verwerken:
- Lange documentverwerking: om een boek van honderden pagina's samen te vatten, analyseren of vertalen, is een extreem lange contextvenster nodig.
- Complexe meerdaagse gesprekken: in klantenservice, psychologische consulten of complexe creatieve samenwerking kunnen gesprekken tientallen of zelfs honderden rondes duren. Een lange context zorgt ervoor dat het model de oorspronkelijke instellingen en doelen niet vergeet, en de consistentie en diepgang van het gesprek behoudt.
- "Een speld in een hooiberg"-capaciteit: dit is de sleuteltest voor de effectiviteit van lange contextmodellen. Dit betekent dat er opzettelijk een feit in duizenden woorden tekst is verborgen, en een krachtig lang contextmodel kan het antwoord nauwkeurig vinden.
- Vermindering van informatieverlies: in een korte context, wanneer nieuwe informatie wordt ingevoerd, wordt oude informatie "weggedrukt". Dit kan leiden tot geheugenverlies en inconsistenties. Een lange context verlicht dit probleem aanzienlijk.
4️⃣ Wat voor soort technologische revolutie en investeringskansen zullen ontstaan wanneer context de nieuwe bottleneck wordt?
Eigenlijk is het al heel duidelijk op de markten van de afgelopen dagen, of het nu gaat om de sterke SanDisk $SDNK, Micron $MU, Samsung of SK. De nieuwe technologische knelpunten zullen ook nieuwe kansen met zich meebrengen.
Dit heeft geleid tot een revolutie in opslagarchitectuur en geheugensubsystemen (zoals HBM hoge-bandbreedtegeheugen, CXL-protocol, NVIDIA's ICMS-platform, enz.).
5️⃣ De opslag supercyclus komt misschien echt aan!
Deze golf van logica heeft ervoor gezorgd dat geheugen en opslag, die oorspronkelijk "bijrollen" waren, nu het "hoofdrol" script van de AI-infrastructuurcyclus hebben gekregen.
Het geheugensegment ($MU, Samsung, Hynix): is niet langer slechts een cyclische voorraad die fluctueert met smartphones/PC's, maar is de "basis voor uitbreiding" van AI-systemen.
Hoge prestaties opslag ($SNDK/WDC): de logica van enterprise SSD's verschuift van "capaciteitswedloop" naar "redeneringsversnelling wedloop".
Netwerken en DPU (NVIDIA zelf): 老黄 verbindt geheugen, opslag en GPU met BlueField-4 en Spectrum-X, wat betekent dat NVIDIA niet alleen chips verkoopt, maar ook de regels definieert voor **"hoe data binnen machines stroomt"**.
10
Boven
Positie
Favorieten
