Microsoft presenterer måling av LLM-inferensenergi (produksjonsskala) • Median kostnad: 0,34 Wh/spørring (chatbot) • Langt resonnement: 4,3 Wh/spørring (~13× høyere) • Flåteskala: ~0,9 GWh/dag @1B spørringer → ~nettsøkenivå • Offentlig est. ofte 4–20× for høyt • Effektivitetsgevinster (modell, servering, maskinvare) → 8–20 × lavere energi mulig Lange utganger dominerer energi; smart optimalisering holder AI-fotavtrykket håndterbart.