Microsoft presenterar Mätning av LLM-inferensenergi (produktionsskala) • Mediankostnad: 0,34 Wh/fråga (chatbot) • Långt resonemang: 4,3 Wh/fråga (~13× högre) • Flottskala: ~0,9 GWh/dag @1B sökningar → ~webbsökningsnivå • Publikest. ofta 4–20× för hög • Effektivitetsvinster (modell, servering, hårdvara) → 8–20 × lägre energi möjlig Långa utgångar dominerar energin; smart optimering håller AI-fotavtrycket hanterbart.