Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
TG-kanal: https://t.co/GJr2Qy5lAb
Futu-kolumnen: https://t.co/3VePAbXwhr
Det är sant
En av anledningarna till att jag inte vill spekulera är att jag inte vill att mitt dagliga liv ska vara insvept i lågexplosiva symboler och vulgära persikofärgade nyheter.
Jag hoppas att när folk frågar mig vad jag forskar om, kan jag öppet säga vad jag tittar på.
Den amerikanska aktiemarknaden forskar på AI, och BSC undersöker tre vägar
165
På CES 2026 presenterade Lao Huang ett nytt perspektiv: trycket från den nya flaskhalsen i datacentret har förändrats från "otillräcklig beräkning" till "otillräcklig kontext", och föreslog att "Kontexten är den nya flaskhalsen — lagringen måste omstruktureras."
1️⃣ Så vad syftar egentligen Context på här?
Kontexten är ett mycket centralt AI-koncept! Med de mest populära orden:
Kontextlängd är den totala mängden tidigare text (eller konversationshistorik) som AI-modellen kan "se" och ta hänsyn till när den hanterar ditt nuvarande problem.
Du kan tänka på det som en modells "korttidsarbetsminne" eller "referensboksidor."
Låt oss säga att du har en lärare med begränsat minne:
Kort kontextlängd (t.ex. 4K-tokens): Denna lärare kan bara minnas dina sista minuter av samtalet. Om du plötsligt frågar honom: "Vad mer gjorde författaren till boken vi just diskuterade?" Om denna del av hans "minnesfönster" inte längre finns där, kan han inte svara.
Lång kontextlängd (t.ex. 128K-tokens): Den här läraren minns hela ditt samtal från de senaste timmarna eller till och med dagarna. Han kan enkelt granska detaljerna som nämnts för länge sedan och göra komplexa resonemang och sammanfattningar baserat på dem.
2️⃣Tekniskt mäts kontextlängd vanligtvis i "tokens". En token motsvarar ungefär 0,75 engelska ord eller ett kinesiskt tecken.
🌟4K-tokens: ungefär 3000 engelska ord, eller en kort artikel.
🌟128 000 tokens: Cirka 100 000 engelska ord, vilket motsvarar längden på en roman.
🌟1 miljoner tokens: Cirka 750 000 engelska ord, motsvarande flera episka böcker.
3️⃣Varför är det så viktigt?
Kontextens längd avgör direkt komplexiteten och koherensen hos de uppgifter som modellen kan hantera:
-Lång dokumenthantering: För att sammanfatta, analysera eller översätta en bok på hundratals sidor krävs ett extra långt kontextfönster.
-Komplexa samtal med flera omgångar: Inom kundservice, psykologisk rådgivning eller komplexa kreativa samarbeten kan samtal pågå i dussintals eller till och med hundratals omgångar. Långa kontexter säkerställer att modellen inte glömmer de ursprungliga inställningarna och målen, vilket bibehåller konsekvens och djup i dialogen.
- "Nål i höstack"-förmåga: Detta är ett nyckeltest för att mäta effektiviteten hos långkontextmodeller. Det vill säga, ett faktum är medvetet begravt i tiotusentals ord text, och en kraftfull modell med lång kontext kan hitta svaret på ett korrekt sätt.
- Minskad informationsförlust: I korta sammanhang "pressas gammal information ut" när ny information matas in. Detta leder till modellamnesi, inkonsekvens. Den långa kontexten lindrar detta problem avsevärt.
4️⃣ Så när kontexten blir en ny flaskhals, vilken typ av teknologisk revolution och investeringsmöjligheter kommer det att medföra?
Faktum är att när man tittar på marknaden de senaste dagarna har det varit mycket uppenbart, om det är starka SanDisk $SDNK, Micron, $MU Samsung eller SK. Nya teknologiska flaskhalsar kommer också att ge nya möjligheter.
Detta har drivit en revolution inom lagringsarkitekturer och minnesdelsystem (såsom HBM högbandbreddsminne, CXL-protokollet, NVIDIAs ICMS-plattform, etc.).
5️⃣ Lagringssupercykeln kan verkligen komma!
Denna våg av logiska förändringar har gjort det möjligt för minne och lagring, som ursprungligen tillhörde "stödrollerna", att få "protagonist"-skriptet för AI-infrastrukturcykeln.
Minnessektor ($MU, Samsung, Hynix): Det är inte längre bara en cyklisk aktie som varierar med mobiltelefoner/datorer, utan "expansionshörnstenen" i AI-system.
Högpresterande lagring ($SNDK/WDC): Logiken i företags-SSD:er skiftar från ett "kapacitetsrace" till ett "inferensaccelerationsrace."
Nätverk och DPU:er (NVIDIA själv): Lao Huang kopplar samman minne, lagring och GPU:er via BlueField-4 och Spectrum-X, vilket innebär att NVIDIA inte bara säljer chip, utan också definierar reglerna för "hur data flödar i maskinen".
6
Topp
Rankning
Favoriter
