Jag delade nyligen en Macquarie-uppskattning som lyfte fram skalklyftan i USA–Kina AI-kraftplanering: Fram till 2030 kommer Kina att behöva AI-relaterad makt motsvarande endast 1–5 % av vad landet tillfört de senaste fem åren; USA kommer att behöva 50–70%. Med andra ord har Kina redan lagt till 20 × den kraft som AI-utbyggnaden kräver, medan USA står inför en mycket brantare uppgång. Detta stämmer också överens med vad jag sa i augusti – att Kina till stor del har "löst" den kortsiktiga AI-energiförsörjningen. Och branschledare som Satya Nadella säger nu den tysta delen högt: den verkliga AI-flaskhalsen är att skifta från GPU:er till elektricitet och energidrivna datacenter. För dem som följer de djupare strukturella skillnaderna, här är nyckelpunkterna från en färsk analys av våra vänner på Weijin Research: 1. Maktklyftan - Tillägg 2023: USA 51 GW mot Kina 429 GW (8×). - Kina genererar 9 000+ TWh, mer än dubbelt så mycket som USA. - Storskalig AI är nu beroende av fysisk energitillgång. 2. Skillnader i effektivitet - Kinas utmaning är inte tillgång utan effektivitet mellan elektricitet och datorer. - Huawei-system kan konkurrera med Nvidia i FLOPs men använder 100%+ mer energi per enhet beräkning. - I ett scenario (CloudMatrix vs. GB200) når Kinas elkostnad per FLOP ~140 % av USA, trots billigare el. 3. Varför detta är viktigt Kraft, nätdesign och beräkningseffektivitet framträder som nationella kärnkompetenser i AI-eran. Det är också därför vi på @techbuzzchina anordnar en New Energy Trip till Kina i januari 2026, med ytterligare program planerade senare under året. Att förstå energisystemet – nät, transmission, lagring, solenergi och hur AI är inbäddat i det – blir allt viktigare för att förstå framtidens databehandling. Kinesiska företag känner också av detta – de rör sig snabbt för att exportera sina teknologier över hela stacken. Länk till artikeln i kommentarerna nedan.