Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Intervju med en tidigare $ORCL-anställd om AI-landskapet och Neoclouds framtid:
- Expert lyfter fram en betydande förändring i $ORCL:s molnerbjudande, OCI ger nu i genomsnitt 66 % besparingar i beräkningskostnader jämfört med andra hyperskal-partners, vilket positionerar det för snabb tillväxt trots dess historiskt dåliga nätverksdesign. Experten noterar att OCI:s viktigaste strategiska fördel är dess förutsägbara och låga TCO, i kontrast till de oförutsägbara kostnaderna för konkurrenter som $AMZN, $MSFT och $GOOGL, där multiregion- och DR-funktioner kan leda till oväntade prisökningar på 30–40%.
- Enligt experten investerar hyperskalare massivt i datacenters GPU-infrastruktur, främst för att möjliggöra AI-modeller och vektordatabaser för kunder. Experten observerar dock en betydande kortsiktig finansiell obalans: hyperscalerernas investeringskostnader är för närvarande högre än intäkterna från kundfakturering, vilket tyder på att de ännu inte är fullt monetariserade. De räknar med att det kommer att ta de kommande 2 till 3 åren för hyperskalare att återfå sin investering och nå ett lönsamt pris. Detta beror främst på att branschen fortfarande befinner sig mitt i GPU:ns livscykel och fortfarande bestämmer de långsiktiga driftskostnaderna.
- Expert betonar att de framväxande neomolnen, såsom $CRWV och $NBIS, är en tillfällig fas som drivs av allvarliga kapacitetsbegränsningar på marknaden, där AI-efterfrågan överstiger GPU-utbudet, främst från $NVDA. Experten ser den nuvarande höga efterfrågan som en "AI-bubbla" som kommer att bestå i tre till fyra år.
- Han tror att framtida arkitektur kommer att fokusera på effektivitet, med en CPU-budget på 80 % och endast 10 % avsatt för GPU-användning på begäran (för uppgifter som inferens- och finjustering) och de återstående 10 % för säkerhet/styrning. I slutändan, när AI-modeller blir mycket effektiva, kommer behovet av att ständigt jaga stora GPU-kluster att minska, vilket gör att branschen kan fokusera på mindre, finjusterade språkmodeller som kan tränas inom kundens egen molntjänst.




Topp
Rankning
Favoriter
