Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Interviu cu un fost angajat $ORCL despre peisajul AI și viitorul Neocloud:
- Expertul evidențiază o schimbare semnificativă în oferta cloud a $ORCL, OCI oferă acum o economie medie de 66% la costurile de calcul comparativ cu alți parteneri hyperscale, poziționându-l pentru o creștere rapidă în ciuda designului său istoric slab al rețelei. Expertul observă că principalul avantaj strategic al OCI este TCO-ul său previzibil și scăzut, în contrast cu costurile imprevizibile ale concurenților precum $AMZN, $MSFT și $GOOGL, unde funcționalitățile multi-regiune și DR pot duce la creșteri neașteptate de preț de 30%–40%.
- Potrivit expertului, hyperscalerii investesc masiv în infrastructura GPU-urilor din centrele de date, în principal pentru a permite modelele AI și bazele de date vectoriale pentru uzul clienților. Totuși, expertul observă un dezechilibru financiar semnificativ pe termen scurt: costurile de investiții ale hyperscalerilor sunt în prezent mai mari decât veniturile generate din facturarea clienților, ceea ce indică faptul că nu sunt încă complet monetizate. Ei anticipează că va dura următorii 2-3 ani până când hiperscalerii își vor recupera investiția și vor ajunge la un preț profitabil. Acest lucru se datorează în principal faptului că industria se află încă la mijlocul ciclului de viață al GPU-ului și încă stabilește costurile operaționale pe termen lung.
- Expertul subliniază că neocloud-urile emergente, precum $CRWV și $NBIS, reprezintă o fază temporară determinată de constrângeri severe de capacitate pe piață, unde cererea pentru AI depășește oferta de GPU, în principal din $NVDA. Expertul consideră cererea ridicată actuală ca pe o "bulă AI" care va persista în următorii trei-patru ani.
- El crede că arhitectura viitoare se va concentra pe eficiență, prioritizând un buget CPU de 80%, cu doar 10% alocat pentru utilizarea GPU la cerere (pentru sarcini precum inferența și reglajele fine) și restul de 10% pentru securitate/guvernanță. În cele din urmă, odată ce modelele AI devin extrem de eficiente, nevoia de a urmări constant clustere mari de GPU-uri va scădea, permițând industriei să se concentreze pe modele lingvistice mai mici, fin reglate, antrenabile în cadrul propriei închirieri cloud ale clientului.




Limită superioară
Clasament
Favorite
