Ce am citit săptămâna asta... 1) xAI strânge 20 miliarde de dolari și investește 20 miliarde de dolari Pe 6 ianuarie, xAI a anunțat că runda lor de Serie E mărită s-a finalizat de la ținta de 15 miliarde de dolari la 20 miliarde de dolari. Aproximativ 600 de milioane de MAU sunt acum atinse în aplicațiile X și Grok. Grok 5 este în prezent în curs de pregătire, iar o nouă investiție de 20 de miliarde de dolari pentru a extinde un centru de date în Southaven, Mississippi, a fost anunțată pe 8 ianuarie. "MACROHARDRR" este acum al treilea centru de date al xAI și se află în apropierea centralei lor electrice recent achiziționate, care va crește puterea de calcul a xAI la aproape 2 gigawați. Autoritatea de Dezvoltare a statului Mississippi a aprobat xAI pentru Incentivul Centrelor de Date, oferind scutire de taxe pe vânzări și utilizare. Această extindere masivă marchează cea mai mare investiție privată din istoria statului. Va crea mii de locuri de muncă și deja se iau măsuri proactive pentru reducerea zgomotului și modelarea emisiilor pentru a proteja comunitatea din apropiere. 2) Megafab masivă de 100 de miliarde de dolari Micron Micron a anunțat recent cea mai mare fabrică de semiconductori din istoria SUA. Lucrările vor începe oficial pe 16 ianuarie, pentru megafab din comitatul Onondaga, NY. Acest proiect de 100 de miliarde de dolari va genera 50.000 de locuri de muncă, va susține până la patru fabrici de semiconductori și va deveni cea mai mare investiție privată din istoria statului New York. Compania oferă un portofoliu de produse de memorie și stocare DRAM, NAND și NOR de înaltă performanță. Peste 70% din veniturile Micron provine din DRAM, iar relevanța AI-ului se vede cel mai clar. Memoria lor cu lățime de bandă mare (HBM) este o arhitectură DRAM specializată, suprapusă vertical și plasată aproape de plăcile video. Pe măsură ce sarcinile de lucru AI se scalează, memoria acționează ca un canal de date care permite GPU-urilor să proceseze trilioanele de parametri necesari pentru raționamentul modern și modelele generative. Din cauza creșterii masive a cererii din partea AI, prețurile DRAM-urilor au explodat cu 171% față de un an de un an. În plus, cererea pentru HBM a crescut mult mai repede decât DRAM-ul standard, iar oferta este limitată deoarece HBM este mai greu de fabricat, are randamente mai mici și doar câțiva jucători îl pot produce la scară largă (SK Hynix, Samsung și Micron). Acest lucru a făcut ca prețul acțiunilor Micron să crească cu peste 225%, de la ~99$ în ianuarie 2025 la ~$325 astăzi. 3) NVIDIA: Șase cipuri noi, un supercomputer AI Jensen Huang a deschis oficial CES 2026 prin dezvăluirea platformei Vera Rubin. Rubin este format din șase cipuri noi proiectate să funcționeze ca un sistem strâns cuplat. Aceasta include GPU-uri de generație următoare, procesoare, rețele și siliciu de interconectare, toate proiectate împreună. Rezultatul este capacitatea de a oferi o reducere de până la 10 ori a costului tokenului de inferență și o reducere de 4 ori a numărului de GPU-uri pentru antrenarea modelelor MoE comparativ cu platforma lor Blackwell. Rubin devine noul hardware optimizat special pentru modele de raționament. Adăugarea Memoriei de Context prin Inferență (ICM) rezolvă costul memoriei pe termen lung și al contextului, unul dintre cele mai mari blocaje din AI în prezent. Platforma Vera Rubin este în producție completă începând cu ianuarie 2026, cu parteneri cloud (Microsoft, CoreWeave, Nebius) care vor fi implementați în anul 2 al doilea al anului 2026. Jensen a împărtășit, de asemenea, momentul de descoperire în AI fizic folosind NVIDIA Cosmos, un model de bază open world care creează date sintetice, predicții și raționamente pentru intrări spațiale 3D. Acest lucru duce la anunțul Alpamayo, primul model auto autonom de gândire și raționament din lume, antrenat de la capăt la capăt, de la cameră la acționare. Parteneriatul Mercedes-Benz CLA exemplifică cei 8 ani de dezvoltare pe care NVIDIA a implementat-o în sistemul lor DRIVE AV.