Jaoin äskettäin Macquarien arvion, joka korostaa Yhdysvaltojen ja Kiinan tekoälyenergiasuunnittelun mittakaavaeroa: Vuoteen 2030 mennessä Kiina tarvitsee tekoälyyn liittyvää voimaa, joka vastaa vain 1–5 % siitä, mitä se on lisännyt viimeisen viiden vuoden aikana; Yhdysvallat tarvitsee 50–70 %. Toisin sanoen, Kiina on jo lisännyt 20× tehoa, jonka tekoälyn rakentaminen vaatii, kun taas Yhdysvallat kohtaa huomattavasti jyrkemmän nousun. Tämä sopii myös yhteen sen kanssa, mitä sanoin elokuussa — että Kiina on pitkälti "ratkaissut" lähiajan tekoälyn voimanlähteen. Ja alan johtajat kuten Satya Nadella sanovat nyt hiljaisen osan ääneen: todellinen tekoälypullonkaula siirtyy GPU:sta sähköön ja sähköisteisiin datakeskuksiin. Niille, jotka seuraavat syvempiä rakenteellisia eroja, tässä ovat keskeiset kohdat Weijin Researchin ystäviemme tuoreesta analyysistä: 1. Valtakuilu - Vuoden 2023 lisäykset: Yhdysvallat 51 GW vs. Kiina 429 GW (8×). - Kiina tuottaa 9 000+ TWh, yli kaksinkertaisesti Yhdysvaltoihin verrattuna. - Laajamittainen tekoäly perustuu nyt fyysiseen sähkön saatavuuteen. 2. Tehokkuuserot - Kiinan haaste ei ole tarjonta vaan sähkön ja laskennan tehokkuus. - Huawei-järjestelmät voivat kilpailla Nvidian kanssa FLOP-tilanteissa, mutta käyttävät 100 %+ enemmän energiaa laskentayksikköä kohden. - Yhdessä skenaariossa (CloudMatrix vs. GB200) Kiinan FLOP-kohtainen sähkön hinta on ~140 % Yhdysvalloista, vaikka sähkö on halvempaa. 3. Miksi tämä on tärkeää Sähkö, verkkosuunnittelu ja laskennan tehokkuus nousevat tekoälyaikakaudella keskeisiksi kansallisiksi kyvykkyyksiksi. Siksi myös @techbuzzchina järjestämme uuden energiamatkan Kiinaan tammikuussa 2026, ja lisäohjelmia on suunnitteilla myöhemmin tänä vuonna. Energiajärjestelmän ymmärtäminen — verkko, siirto, varastointi, aurinkoenergia ja miten tekoäly on siihen integroitu — on yhä olennaista tietojenkäsittelyn tulevaisuuden ymmärtämiseksi. Kiinalaiset yritykset aistivat tämän myös—ne etenevät nopeasti viedäkseen teknologiansa koko pinon läpi. Linkki tekstiin kommenteissa alla.