Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Fiona ❤️& ✌️
Saluran TG: https://t.co/GJr2Qy5lAb
Kolom Futu: https://t.co/3VePAbXwhr
Itu benar
Salah satu alasan mengapa saya tidak ingin berspekulasi adalah karena saya tidak ingin kehidupan sehari-hari saya dibungkus dengan simbol rendah ledak dan berita vulgar berwarna persik.
Saya berharap ketika orang bertanya kepada saya apa yang saya teliti, saya dapat mengatakan apa yang saya lihat secara terbuka.
Pasar saham AS sedang meneliti AI, dan BSC sedang meneliti tiga jalur
200
Di CES 2026, Lao Huang mengajukan perspektif baru: tekanan kemacetan baru pusat data telah berubah dari "komputasi yang tidak memadai" menjadi "konteks yang tidak memadai", dan mengusulkan bahwa "Konteks adalah kemacetan baru — penyimpanan harus dirancang ulang."
1️⃣ Jadi apa sebenarnya yang dimaksud dengan Konteks di sini?
Konteks adalah konsep AI yang sangat inti! Dalam kata-kata yang paling populer:
Panjang konteks adalah jumlah total teks sebelumnya (atau riwayat percakapan) yang dapat "dilihat" dan dipertimbangkan oleh model AI saat menangani masalah Anda saat ini.
Anda dapat menganggapnya sebagai "memori kerja jangka pendek" atau "halaman buku referensi" model.
Katakanlah Anda memiliki guru dengan memori terbatas:
Panjang konteks pendek (misalnya, token 4K): Guru ini hanya dapat mengingat beberapa menit terakhir percakapan Anda. Jika tiba-tiba Anda bertanya kepadanya: "Apa lagi yang penulis buku yang baru saja kita bahas?" Jika bagian dari "jendela memori" ini tidak lagi ada, dia tidak bisa menjawab.
Panjang konteks yang panjang (misalnya, 128 ribu token): Guru ini mengingat seluruh percakapan Anda dari beberapa jam atau bahkan hari terakhir. Dia dapat dengan mudah meninjau detail yang disebutkan sejak lama dan membuat penalaran dan ringkasan yang kompleks berdasarkan mereka.
2️⃣Secara teknis, panjang konteks biasanya diukur dalam "token". Token kira-kira sama dengan 0,75 kata bahasa Inggris atau satu karakter Cina.
🌟Token 4K: sekitar 3000 kata bahasa Inggris, atau artikel pendek.
🌟128K token: Sekitar 100.000 kata bahasa Inggris, yang setara dengan panjang novel.
🌟1 juta token: Sekitar 750.000 kata bahasa Inggris, setara dengan beberapa buku epik.
3️⃣Mengapa ini sangat penting?
Panjang konteks secara langsung menentukan kompleksitas dan koherensi tugas yang dapat ditangani model:
-Pemrosesan dokumen yang panjang: Untuk meringkas, menganalisis, atau menerjemahkan buku ratusan halaman, ini memerlukan jendela konteks ekstra panjang.
-Percakapan multi-putaran yang kompleks: Dalam layanan pelanggan, konseling psikologis, atau kolaborasi kreatif yang kompleks, percakapan dapat berlangsung selama puluhan atau bahkan ratusan putaran. Konteks yang panjang memastikan bahwa model tidak melupakan pengaturan dan tujuan awal, menjaga konsistensi dan kedalaman dalam dialog.
- Kemampuan "Jarum di Tumpukan Jerami": Ini adalah tes utama untuk mengukur efektivitas model konteks panjang. Artinya, sebuah fakta sengaja terkubur dalam puluhan ribu kata teks, dan model konteks panjang yang kuat dapat secara akurat menemukan jawabannya.
- Mengurangi kehilangan informasi: Dalam konteks singkat, informasi lama "diperas" ketika informasi baru dimasukkan. Hal ini menyebabkan amnesia model, inkonsistensi. Konteks yang panjang sangat meringankan masalah ini.
4️⃣ Jadi ketika konteks menjadi kemacetan baru, revolusi teknologi dan peluang investasi seperti apa yang akan dibawanya?
Faktanya, melihat pasar dalam beberapa hari terakhir, sangat jelas, apakah itu SanDisk $SDNK, Micron, $MU Samsung, dan SK yang kuat. Kemacetan teknologi baru juga akan membawa peluang baru.
Hal ini telah mendorong revolusi dalam arsitektur penyimpanan dan subsistem memori (seperti memori bandwidth tinggi HBM, protokol CXL, platform ICMS NVIDIA, dll.).
5️⃣ Supercycle penyimpanan mungkin benar-benar datang!
Gelombang perubahan logis ini telah memungkinkan memori dan penyimpanan, yang awalnya milik "peran pendukung", untuk mendapatkan skrip "protagonis" dari siklus infrastruktur AI.
Sektor memori ($MU, Samsung, Hynix): Ini bukan lagi hanya saham siklus yang berfluktuasi dengan ponsel/PC, tetapi "landasan ekspansi" sistem AI.
Penyimpanan Performa Tinggi ($SNDK/WDC): Logika SSD perusahaan bergeser dari "perlombaan kapasitas" ke "perlombaan akselerasi inferensi".
Jaringan dan DPU (NVIDIA sendiri): Lao Huang menghubungkan memori, penyimpanan, dan GPU melalui BlueField-4 dan Spectrum-X, yang berarti bahwa NVIDIA tidak hanya menjual chip, tetapi juga mendefinisikan aturan "bagaimana data mengalir di mesin".
22
Teratas
Peringkat
Favorit
