Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
TG-kanal: https://t.co/GJr2Qy5lAb
Futu-spalte: https://t.co/3VePAbXwhr
Det er sant
En av grunnene til at jeg ikke vil spekulere, er at jeg ikke vil at hverdagen min skal være pakket inn i laveksplosive symboler og vulgære, ferskenfargede nyheter.
Jeg håper at når folk spør meg hva jeg forsker på, kan jeg si åpent hva jeg ser på.
Det amerikanske aksjemarkedet forsker på KI, og BSC undersøker tre veier
201
På CES 2026 presenterte Lao Huang et nytt perspektiv: presset fra den nye flaskehalsen i datasenteret har endret seg fra «utilstrekkelig datakraft» til «utilstrekkelig kontekst», og foreslo at «kontekst er den nye flaskehalsen — lagring må omstruktureres.»
1️⃣ Så hva refererer egentlig Kontekst til her?
Kontekst er et veldig grunnleggende AI-konsept! Med de mest populære ordene:
Kontekstlengde er den totale mengden tidligere tekst (eller samtalehistorikk) som AI-modellen kan «se» og vurdere når den håndterer ditt nåværende problem.
Du kan tenke på det som modellens «korttidsarbeidsminne» eller «oppslagsboksider».
La oss si at du har en lærer med begrenset hukommelse:
Kort kontekstlengde (f.eks. 4K-tokens): Denne læreren kan bare huske de siste minuttene av samtalen. Hvis du plutselig spør ham: «Hva annet gjorde forfatteren av boken vi nettopp diskuterte?» Hvis denne delen av hans "minnevindu" ikke lenger er der, kan han ikke svare.
Lang kontekstlengde (f.eks. 128K tokens): Denne læreren husker hele samtalen din fra de siste timene eller til og med dagene. Han kan lett gjennomgå detaljene som ble nevnt for lenge siden og lage komplekse resonnementer og oppsummeringer basert på dem.
2️⃣Teknisk sett måles kontekstlengde vanligvis i "tokens". En token tilsvarer omtrent 0,75 engelske ord eller ett kinesisk tegn.
🌟4K-tokens: omtrent 3000 engelske ord, eller en kort artikkel.
🌟128 000 tokens: Omtrent 100 000 engelske ord, som tilsvarer lengden på en roman.
🌟1 million tokens: Omtrent 750 000 engelske ord, tilsvarende flere episke bøker.
3️⃣Hvorfor er det så viktig?
Lengden på konteksten bestemmer direkte kompleksiteten og sammenhengen i oppgavene modellen kan håndtere:
-Lang dokumentbehandling: For å oppsummere, analysere eller oversette en bok på hundrevis av sider, kreves et ekstra langt kontekstvindu.
-Komplekse samtaler med flere runder: I kundeservice, psykologisk rådgivning eller komplekse kreative samarbeid kan samtaler vare i dusinvis eller til og med hundrevis av runder. Lange kontekster sikrer at modellen ikke glemmer de opprinnelige innstillingene og målene, og opprettholder konsistens og dybde i dialogen.
- "Nål i høystakk"-funksjon: Dette er en nøkkeltest for å måle effektiviteten til langkontekstmodeller. Det vil si at et faktum bevisst er begravd i titusenvis av tekstord, og en kraftig modell med lang kontekst kan nøyaktig finne svaret.
- Redusert informasjonstap: I korte sammenhenger blir gammel informasjon "presset ut" når ny informasjon legges inn. Dette fører til modellamnesi, inkonsistens. Den lange konteksten lindrer dette problemet betydelig.
4️⃣ Så når konteksten blir en ny flaskehals, hva slags teknologisk revolusjon og investeringsmuligheter vil det bringe?
Faktisk, når man ser på markedet de siste dagene, har det vært veldig åpenbart om det er sterke SanDisk $SDNK, Micron, $MU Samsung og SK. Nye teknologiske flaskehalser vil også bringe nye muligheter.
Dette har drevet en revolusjon innen lagringsarkitekturer og minnesubsystemer (som HBM høybåndbreddeminne, CXL-protokollen, NVIDIAs ICMS-plattform, osv.).
5️⃣ Lagringssupersyklusen kan virkelig komme!
Denne bølgen av logiske endringer har gjort det mulig for minne og lagring, som opprinnelig tilhørte «støtterollene», å få «protagonist»-skriptet i AI-infrastruktursyklusen.
Minnesektor ($MU, Samsung, Hynix): Det er ikke lenger bare en syklisk aksje som svinger med mobiltelefoner/PC-er, men "utvidelseshjørnesteinen" i AI-systemer.
Høyytelseslagring ($SNDK/WDC): Logikken i bedrifts-SSD-er skifter fra et «kapasitetskappløp» til et «inferensakselerasjonskappløp».
Nettverk og DPU-er (NVIDIA selv): Lao Huang kobler minne, lagring og GPU-er gjennom BlueField-4 og Spectrum-X, noe som betyr at NVIDIA ikke bare selger brikker, men også definerer reglene for «hvordan data flyter i maskinen».
23
Topp
Rangering
Favoritter
