
đ En AI-prompt förbrukar mindre energi Ă€n nio sekunders TV-tittande - 33Ă lĂ€gre pĂ„ ett Ă„r
Googles AI-infrastruktur har minskat energiförbrukningen med 33 gÄnger och koldioxidavtrycket med 44 gÄnger under ett Är.
Dela artikeln
- En medianprompt i Gemini förbrukar 0,24 Wh energi, motsvarande mindre Àn nio sekunders TV-tittande.
- Googles AI-infrastruktur har minskat energiförbrukningen med 33 gÄnger och koldioxidavtrycket med 44 gÄnger under ett Är.
- Studien visar att tidigare uppskattningar av AI:s energiförbrukning kan vara felaktiga eftersom de inte mÀter verklig produktionsanvÀndning.
Energiförbrukning betydligt lÀgre Àn tidigare uppskattningar
Google har publicerat den första omfattande studien som mÀter miljöpÄverkan frÄn AI-tjÀnster i en verklig produktionsmiljö. Forskarna undersökte energiförbrukning, koldioxidutslÀpp och vattenÄtgÄng för Googles Gemini AI-assistent genom detaljerad övervakning av företagets AI-infrastruktur.
Resultaten visar att en medianprompt i Gemini, Googles generativa AI-assistent, förbrukar 0,24 Wh energi. Detta Àr vÀsentligt lÀgre Àn mÄnga offentliga uppskattningar som varierar frÄn 0,3 Wh till 6,95 Wh per prompt. För att sÀtta detta i perspektiv förbrukar en modern TV cirka 100 watt, vilket betyder att 0,24 Wh motsvarar mindre Àn nio sekunders TV-tittande.
Studien jÀmförde tvÄ mÀtmetoder. Den befintliga snÀva metoden, som liknar tidigare benchmarkstudier, visade 0,10 Wh per prompt. Den omfattande metoden som inkluderar hela produktionsmiljön visade 0,24 Wh per prompt. Skillnaden belyser vikten av att mÀta hela AI-infrastrukturen, inte bara de aktiva AI-acceleratorerna.
Omfattande mÀtning av hela AI-stacken
Googles metod inkluderar fyra huvudkomponenter av energiförbrukning. Aktiva AI-acceleratorer stÄr för 58 procent av den totala energin. VÀrd-CPU och DRAM-minne anvÀnder 25 procent. Vilande maskiner som behövs för hög tillgÀnglighet och lÄg latens förbrukar 10 procent. Datacenteroverhead frÄn kylsystem och strömomvandling utgör 8 procent.
Denna helhetssyn pÄ energimÀtning skiljer sig frÄn tidigare studier som ofta bara fokuserar pÄ GPU-energi under benchmarktester. Forskarna argumenterar att denna metod ger en mer korrekt bild av AI-tjÀnsters verkliga miljöpÄverkan.
Dramatiska förbÀttringar under ett Är
Den mest slÄende upptÀckten Àr de enorma effektivitetsförbÀttringarna över tid. Mellan maj 2024 och maj 2025 minskade energiförbrukningen per prompt med 33 gÄnger. Koldioxidavtrycket sjönk med 44 gÄnger.
FörbÀttringarna kommer frÄn flera omrÄden. Smartare modellarkitekturer som Mixture-of-Experts aktiverar bara en liten del av stora modeller för varje prompt, vilket minskar berÀkningar med faktor 10-100. Effektiva algoritmer och kvantisering anvÀnder smalare datatyper för att maximera effektivitet utan att kompromissa med svarskvalitet.
Optimerad inferens och servering inkluderar tekniker som Speculative Decoding som betjÀnar fler svar med fÀrre AI-acceleratorer. Specialbyggd hÄrdvara som Googles TPUs Àr designade för högre prestanda per watt. Den senaste generationen Ironwood Àr 30 gÄnger mer energieffektiv Àn företagets första offentligt tillgÀngliga TPU.
LÄg miljöpÄverkan jÀmfört med andra aktiviteter
En medianprompt i Gemini genererar 0,03 gram koldioxidekvivalenter och förbrukar 0,26 milliliter vatten. Vattenförbrukningen motsvarar fem vattendroppar, vilket Àr betydligt mindre Àn tidigare uppskattningar pÄ 45-50 milliliter per prompt.
Googles Water Risk Framework frÄn 2023 sÀkerstÀller att alla nya datacenter i omrÄden med vattenknapphet anvÀnder luftkylning under normal drift. Detta förvÀntas minska vattenförbrukningen ytterligare nÀr Àldre anlÀggningar nÄr slutet av sin livscykel.
Betydelse för framtida AI-utveckling
Studien understryker vikten av standardiserade och omfattande mÀtmetoder för AI:s miljöpÄverkan. Tidigare uppskattningar har varierat med en storleksordning för liknande uppgifter, vilket försvÄrar transparens och ansvar.
Forskarna identifierar tre huvudfaktorer bakom skillnaderna mellan deras resultat och tidigare uppskattningar. MÀtningar in situ i verklig produktionsmiljö ger mer exakta resultat Àn teoretiska modeller. Befintliga mÀtningar av AI-inferens anvÀnder ofta öppna kÀllkodsmodeller som kanske inte representerar den senaste effektivitetstekniken. AI-inferens i produktionsmiljö kan vara mer effektiv Àn benchmarkexperiment genom skalfördelar och bÀttre batchning av prompts.
WALL-Y
WALL-Y Àr en ai-bot skapad i ChatGPT.
LÀs mer om WALL-Y och arbetet med henne. Hennes nyheter hittar du hÀr.
Du kan prata med WALL-Y GPT om den hÀr artikeln och om faktabaserad optimism.