AI och energiåtgång — två miljarder tokens senare
Under den senaste månaden har jag förbrukat nästan två miljarder tokens1 genom mitt dagliga arbete med AI. Det motsvarar uppskattningsvis 100 kWh energi — ungefär lika mycket som krävs för att driva ett par kylskåp i en månad.
Det förvånade mig. I ett blogginlägg från augusti förra året uppskattade jag att det gick stora mängder energi för att träna modeller2, men att energin för att ställa enstaka frågor till en AI var försumbar. Jag räknade med att mina promptar under en vecka förbrukade ungefär en kilowattimme. Det var inte fel — då.
Det som har förändrats är hur jag använder AI. Runt årskiftet upptäckte många att AI-modellerna blivit väldigt bra på att lösa komplexa uppgifter i flera steg. Jag arbetar numera dagligen med Claude Code, en så kallad “agent” som kan läsa filer, köra kommandon, resonera i flera steg och skriva kod. Det kräver helt andra mängder tokens än en vanlig chattfråga. En enkel fråga kanske använder några hundra tokens. En arbetsdag med Claude Code kan förbruka miljontals. Jag har funnit mig använda det så pass mycket att jag behövde uppgradera från ett “Pro”-abonnemang till ett dyrare “Max” för att inte behöva begränsa mitt dagliga arbete.
Mätaren
För att ta reda på vad det faktiskt kostar i energi byggde jag en mätare (källkod på GitHub). Det är ett Python-skript som körs i Claude Codes statusrad. Varje gång AI:n gör ett API-anrop skickas tokenstatistik till skriptet, som ackumulerar dagliga totaler — input-tokens, output-tokens och cachade tokens — i en lokal fil. Vid midnatt arkiveras dagens totaler till en historikfil. Energin uppskattas genom att multiplicera antalet tokens med publicerade estimat för varje tokentyp, med en osäkerhetsfaktor på ungefär 3x åt vardera hållet.3
Resultatet
Hundra kilowattimmar i månaden. Det är långt ifrån de försumbara mängder jag räknade med förra året. Värt att notera är att siffran bara avser beräkningsenergin — den energi som går åt i GPU:erna som bearbetar mina tokens. Den verkliga operativa energin i ett datacenter, inklusive kylning och annan infrastruktur, är troligen 1,5–3 gånger högre.
Beroendet
Men energimängden är inte det enda som fick mig att stanna upp. All min inferens4 sker i datacenter i USA. Det innebär att jag, för snart sagt hela mitt dagliga arbete, är beroende av att datahallar i ett annat land förses med energi — och att företaget Anthropic fortsätter att existera och leverera sina tjänster till mig.5
Det är en sårbarhet. Inte bara för mig — utan för alla som bygger sina arbetsflöden kring en enskild AI-leverantör i ett annat land.
Framåt
Jag har börjat fundera på vad jag kan göra åt det. Konkret innebär det att minska min energianvändning genom att byta ut token-kostsamma MCP-servrar mot smalare CLI-verktyg, se till att mina verktyg enkelt går att använda med modeller från andra leverantörer — så som OpenAI eller Mistral — och att flytta beräkningskraft närmare hem.6 Det kan betyda inhemska molntjänster som Berget AI, eller att köra lättare modeller lokalt.
Men den större insikten är enklare än så: att använda AI i mitt dagliga arbete har gått från att vara energimässigt osynligt till att motsvara en extra apparat i hushållet. Det förändrar inte att teknologin är användbar — men det förändrar hur medvetet jag vill använda den.
Footnotes
-
En token är den grundläggande enheten som AI-modeller arbetar med. Ungefär som en människa läser ord för ord läser en AI token för token. En token motsvarar ungefär tre fjärdedels ord på engelska — eller ungefär halva ett ord på svenska, som har fler sammansatta ord. Ordet “energiförbrukning” är till exempel tre tokens. ↩
-
Att träna en modell innebär att mata en AI med enorma mängder data — exempelvis text från Internet — och låta den hitta mönster och samband i datan. Processen kräver tusentals specialiserade processorer som arbetar i veckor eller månader, och resultatet är en digital artefakt (modellen) som sedan kan svara på frågor och lösa uppgifter. ↩
-
Ingen utanför Anthropic vet den faktiska energin per token för Claude-modeller. Mittestimaten kommer från Simon P. Couchs analys av Claude Codes energiförbrukning, som härleder per-token-siffror från Epoch AI:s forskning och Anthropics prisförhållanden. Osäkerheten på 3x innebär att det verkliga talet kan vara tre gånger högre eller lägre — ett brett spann, men ärligt om vad vi faktiskt vet. ↩
-
Inferens är det som händer varje gång du ställer en fråga till en AI — modellen tar emot din text, bearbetar den och producerar ett svar. Till skillnad från träning, som sker en gång, sker inferens varje gång någon använder modellen. Det är inferensen som ger upphov till den löpande energiförbrukningen. ↩
-
Vilket kanske inte alls är en självklarhet givet deras pågående bråk med amerikanska försvarsdepartementet, som jag skrev en del om här. ↩
-
Jag överväger att köpa en lite kraftigare stationär dator för att kunna köra modeller lokalt. Det kommer inte helt att kunna ersätta de kraftigaste modellerna från OpenAI, Anthropic eller Google, men kan förhoppningsvis ersätta en stor del av mitt “basbehov” för lättare uppgifter. ↩