Här är syftet inte att skapa oro, utan snarare att redogöra för fakta. För i detta skede av cykeln tror jag uppriktigt att det kommer vara de mest jordnära begränsningarna – el, maskinvarans ålderdomlighet, industriell genomföring och redovisning – som kommer att styra aktieavkastningen.

AI-molnet: en tillväxtmotor, men oklar lönsamhet

På MarketScreener är vår arkitektur hybrid. Vår plattform bygger huvudsakligen på servrar som vi äger själva, men vi hyr också infrastruktur – särskilt för AI-projekt, där vi behöver de omtalade GPU:erna.

Exempelvis kostar det cirka 400 eller 500 € per månad att hyra en server med ett V100-GPU (16 GB VRAM). Eftersom dessa chip är från 2017 och kostade ungefär 10 000 € i inköp, har investeringen säkert redan betalats tillbaka för molnleverantörerna. Men idag är det nästan ingen som hyr dessa V100, eftersom de inte stöder den senaste mjukvaran som krävs för att effektivt köra de bästa LLM:erna. Istället används ofta en L40-GPU, lanserad 2022, eller en A100.

Och här är kärnan: både maskin- och mjukvaruutvecklingen har accelererat. Nya chip kommer snabbare och snabbare – Nvidia håller ungefär årlig lanseringstakt – och open source-gemenskapen innoverar ständigt på mjukvarulagret. Resultatet är att infrastruktur som köps idag kan vara tekniskt OK om tre år men kommersiellt föråldrad jämfört med effektiviteten hos nya generationer.

Det är svårt att tänka sig att upprepa V100-scenariot: att hyra ut ett chip för 10 000 € till 500 € i månaden i mer än tre år. Och då talar vi endast om chipet, inte om ett komplett, fungerande, kylt och kabelanslutet AI-rack, etc. Inte heller om energikostnader: ett AI-rack som körs dygnet runt drar cirka 100 kW. Allt annat än försumbart.

Två saker kan därför hända – och vi börjar redan se det.

  1. Open source-gemenskapen kan anpassa mjukvara så att de senaste modellerna kan köras på äldre chip, vilket förlänger deras ekonomiska livslängd. Rätt imponerande.
  2. Hyperscalers kommer att höja priserna. Och det är till och med nödvändigt om de vill undvika att hamna på en ROIC under 5 %. Till exempel förväntar sig OVH:s VD prishöjningar på molntjänster på 5–10 % till mitten av 2026, med interna serverkostnader upp 15–25 %, särskilt på grund av tryck på DRAM/SSD och AI-hardware.

Och vet ni vad? Jag tror att en stor del av AI-molnets efterfrågan inte kommer att följa med om priserna stiger för snabbt. Helt enkelt för att det inte är så enkelt att tjäna pengar på ett AI-projekt. Det är väldigt lätt att prototypa – och jag talar av erfarenhet – men att få ett tillförlitligt, skalbart och lönsamt system i produktion är en annan sak.

Vi har i flera månader haft som mål att göra MarketScreeners sökruta intelligent, och jag kan säga: det är lättare sagt än gjort om man inte vill spendera 0,10 € varje gång en användare trycker Enter. Och om vi vågar oss på ett sådant projekt är det just för att GPU-hyrpriserna fortfarande verkar rimliga för oss. Men om priset dubblas eller tredubblas tror jag uppriktigt att en stor del av efterfrågan inte klarar dessa ökningar.

Det fysiska flaskhalsen

Goldman Sachs uppskattar att datacentersefterfrågan på el kommer att öka med cirka +165 % till 2030, drivet nästan uteslutande av AI. 

Tillgången på reglerbar el växer inte nästan lika snabbt. Frågan är inte längre ens "till vilket pris?" utan "kommer det att finnas tillräckligt, på rätt plats, vid rätt tidpunkt?"

I norra Virginia, världens största nav, är det upp till sju års väntetid för nya projekt att anslutas till elnätet. Och det är inte ett lokalt undantag: amerikanska och europeiska nätdriftsoperatörer rapporterar om längre köer överallt där AI vill etablera sig.

Tio- och hundratals miljarder dollar i kapacitet byggs... som inte kan användas eftersom de inte är anslutna (brist på transformatorer, kylanläggningar, specialiserad arbetskraft osv.). Och ironiskt nog avskrivs dessa tillgångar medan de väntar på att kopplas in.

Det är den verkliga alternativkostnaden för AI: inte bara capex, utan industriell stilleståndstid.

Det är så problematiskt att hyperscalers tecknar eller finansierar SMR-kärnkraftsprojekt (Oklo, X-Energy, etc.). Men låt dig inte luras: betydande leveranser är troligen först efter 2030.

Denna energiflaskehals har två direkta effekter på hyperscalers:

  • Oplanerade extra CapEx: de måste finansiera inte bara datacenter utan ibland även sina egna energilösningar.
  • ROI-försening: potentiella AI-intäkter finns, efterfrågan finns (för tillfället, och till detta pris), men levererbar kapacitet är begränsad, så intäktsströmmarna skjuts upp.

Investeringar i en omfattning som privata bolag aldrig hanterat tidigare

Missta dig inte: vi är i ett historiskt unikt läge, med hundratals miljarder i CapEx per år koncentrerade till en handfull bolag.

Jag vågar knappt nämna exakta siffror av rädsla för att vara inaktuell. Såvitt jag minns handlar det om över 600 md USD i årliga AI-investeringar till 2026–2027.

Enligt Wall Street Journal kan amerikanska AI-investeringar ha stått för hälften av landets BNP-tillväxt under årets första sex månader.

Vem kan genomföra sådana investeringsprogram utan att förstöra värde?

Aktörerna själva medger det: inget av dessa bolag har någonsin kört ett industriellt projekt på 50 md USD – och nu startar de ett dussin samtidigt. På denna nivå blir minsta logistikfel en pengaslukare, och förseningar kostar förmögenheter.

Att finansiera dessa investeringar är inte heller trivialt. En verklig förändring av kapitalstrukturen äger rum hos teknikbolag som vi tidigare kände som extremt finansiellt stabila.

Under 2025 emitterades över 120 md USD i skuld av dessa hyperscalers, en kraftig ökning mot tidigare år, och den prognostiserade utvecklingen för 2026–2027 är ännu starkare.

Oracle är ett bra exempel: nettoskulden är nu över 80 md USD och skuldsättningsgraden över 3.

Även om stämningen i USA verkar ha lättat sedan slutet på nedstängningen och publiceringen av makrosiffror, är detta ett stort steg: mindre svängrum om räntorna förblir höga, större känslighet för konjunkturcykeln och därmed ökad beroende av AI:s kommersiella framgång.

Ekosystemets cirkularitet

En punkt som analytiker världen över ofta lyfter är cirkulariteten i de ekonomiska flödena. Detta incestuösa flödesmönster får oss att tro att en del av tillväxten som rapporteras av aktörer i ekosystemet inte är verklig nettovärdeskapande.

Upplägget är ganska enkelt:

  1. Hyperscalers investerar massivt i datacenter.
  2. En stor del av AI-efterfrågan kommer från... AI-aktörer själva: startups, labb, plattformar, modellutgivare.
  3. Dessa aktörer finansierar sin molnkonsumtion via kapitalanskaffningar där hyperscalers och halvledarjättar ofta är aktieägare, partners eller exklusiva leverantörer.
  4. Molnintäkterna blåses därmed upp delvis av ett system där leverantören indirekt finansierar sin egen kund.

Inget av detta är katastrofalt, men det är värt att notera att denna cirkularitet möjliggör för aktörerna att visa spektakulär tillväxt även om slutlig efterfrågan, från allmänheten eller traditionella företag, ännu inte visat att den hänger med.

Varför är det skört?

  • För att loopen är beroende av kapitalkostnaden. Så länge pengar är billiga och värderingarna höga kan startups konsumera molntjänster med förlust. Om marknadens aptit minskar krymper loopen snabbt.
  • För att intäkterna är korrelerade. Om en länk minskar sina utgifter (till exempel en AI-plattform som bromsar tillväxten), ser hyperscalern sina molnintäkter mattas, vilket minskar dess återinvesteringsförmåga, vilket tynger GPU-efterfrågan... osv.
  • För att slutvärdet ännu inte är säkrat. Ekosystemet spenderar enorma summor idag på ett löfte, men om intäktsgenereringen av användningsfallen tar längre tid än väntat blir hela bygget mycket känsligt för ett regimskifte.

Kreativ bokföring

Vissa kallar det bedrägeri, andra kreativ bokföring. För mig är det den mest pragmatiska punkten här: hyperscalers har börjat anta att nyttjandeperioden för deras servrar och chip har ökat, och förlänger därför avskrivningstiderna samtidigt som produktlivscykeln för AI-hardware förkortas. En oroande divergens, som antyder att de bokför vinster idag på bekostnad av framtiden.

change in useful life AI chips

Nyttjandeperiod för servrar (avskrivningsplan) för de tre största hyperscalers. Den koordinerade förskjutningen från 3/4 år till 6 år är lätt att observera över tid. Källa: ""Why AI factories bend, but don't break, useful life assumptions", SiliconAngle.

Under 2023 förlängde Alphabet den uppskattade nyttjandeperioden för servrar från 4 till 6 år och för viss nätverksutrustning från 5 till 6 år. Samma sak för Microsoft.

Under 2025 förlängde Meta till 5,5 år (tidigare 4–5 år). Samma år började även Oracle skriva av maskinvara över 6 år.

Om du inte förstår den finansiella mekanismen, här är ett snabbt exempel:

Anta att en hyperscaler köper servrar/AI-GPU:er för 100 md USD. Om bolaget bedömer nyttjandeperioden till 3 år bokförs cirka 33 md USD per år i avskrivning (rak linje). Om det förlängs till 6 år bokförs bara 17 md USD per år.

Resultat: +16 md USD i årligt rörelseresultat på kort sikt, utan att en krona i kassan förändras. Det handlar bara om resultaträkningens tidpunkt, för om fyra år kommer tillgångarnas bokförda värde vara frikopplat från den ekonomiska verkligheten, och bolaget kan tvingas skriva ned restvärdet på en gång – till mångas förvåning.

Michael Burry uppskattar att underavskrivningen av dessa bolags AI-tillgångar kommer att nå cirka 180 md USD till 2028. Enligt honom har detta bokföringsval ökat Oracles vinst med 26,9 % och Metas med 20,8 %.

Burry är inte ensam om att gå emot strömmen. The Economist talar om "the USD 4 trillion accounting puzzle at the heart of the AI cloud".

Enligt deras uppskattningar, om dessa tillgångar skrevs av på tre år istället för de längre livslängder som företagen nu använder, skulle årliga resultat före skatt minska med cirka 8 %. Och om avskrivningarna verkligen matchade Nvidias påtvingade takt (vilket är extremt och inte riktigt logiskt enligt mig – jämför bara med iPhones), skulle den implicita chocken mot marknadsvärdet kunna nå 4 000 md USD.

Vi kan diskutera ordet "bedrägeri", för det är inte lätt att uppskatta nyttjandeperioden för utrustning som utsätts för mer eller mindre årlig innovation. Men den ekonomiska mekanismen är obestridlig: man skjuter notan på framtiden medan tekniken accelererar. Den divergensen är egendomlig. Dock, som jag nämnde tidigare, ser vi faktiskt en ansträngning från open source-gemenskapen att bygga mjukvara som gör att de senaste modellerna kan köras på äldre chip. Och det är fullt möjligt att de senaste chipgenerationerna i praktiken visar sig mycket motståndskraftiga, särskilt i slutskedet av sitt liv, för enklare applikationer (och inte träning) med kunder som oss.

I slutändan kanske dessa varningssignaler har förhindrat att AI-vadslagningen blivit ännu mer överbefolkad än den redan är. Det är Bank of Americas något djärva teori, som tror att skepsisen gynnar de modiga genom att lämna andra investerare på sidan. Det behöver väl knappast sägas att den amerikanska investmentbankens halvledarteam inte hyser några tvivel om sektorns drivkraft, trots allt oväsen.