Vad kostar er AI egentligen? En guide till TCO för AI-infrastruktur

Det börjar nästan alltid likadant. Bolaget testar ett AI-projekt i molnet, ser lovande resultat, och beslutar sig för att skala. Sedan dimper fakturan ner. Plötsligt pratar vi inte längre om en experimentbudget – vi pratar om en löpande driftskostnad som ingen riktigt räknat på.

TCO – Total Cost of Ownership – är ett välkänt begrepp i IT-världen. Men för AI-infrastruktur är det mer komplext och oftare felkalkylerat, än för nästan någon annan teknikinvestering. Det beror på att kostnaderna är osynliga på olika ställen beroende på om man kör i molnet, on-prem, eller en hybridlösning.

Det här är vår genomgång. Inte för att skrämma upp någon, utan för att ge en faktisk grund för att fatta rätt beslut.

Varför molnkalkylen spricker vid skalning

Molnleverantörer är duktiga på att erbjuda låga tröskelkostnader. Det är enkelt att komma igång, och de första tusen kronorna i GPU-tid känns hanterbart. Problemet uppstår när ni går från att träna en modell till att köra den kontinuerligt i produktion.

En H100-instans i hyperscaler-molnet kostar ungefär 25–35 kr per timme. Det låter rimligt – tills ni räknar på att en produktionsmodell kan behöva köra 24/7. Det blir snabbt 200 000–250 000 kr per månad, per GPU. Och de flesta seriösa AI-miljöer behöver mer än en.

Därtill tillkommer egress-kostnader (att flytta data ut ur molnet), lagringskostnader som skalas med datamängd, och licenskostnader för plattformsverktyg som ofta är dolda i de initiala utvärderingarna. Kostnader som är svåra att se i en pilotfas, men som syns tydligt i kvartalsrapporten.

On-prem underskattar driftkostnaden

Egna servrar och GPU-kluster har naturligtvis en annan kostnadsprofil. Investeringen är större initialt, men marginalkostnaden per GPU-timme är avsevärt lägre när hårdvaran väl är betald. Det är det enkla argumentet för on-prem – och det stämmer, men det är inte hela bilden.

Det som underskattas är driftkostnaden. Att underhålla ett GPU-kluster kräver kompetens som inte är billig. Kylning, el, nätverksinfrastruktur, uppdateringar, felsökning – allt detta är reella kostnader som sällan är med i den initiala beräkningen. Och om ni inte har ett dedikerat team för det kan on-prem snabbt kosta mer i tid och frustration än vad molnet kostar i kronor.

Det är här en managed plattform som AiQu förändrar kalkylen. Ni får on-prem-kontroll och kostnadseffektivitet vid skalning, men utan att bygga upp hela driftorganisationen själva.

De tre kostnader som nästan alltid missas

Oavsett om ni kör i moln eller on-prem finns det tre kostnader som konsekvent underskattas i AI-TCO-kalkyler:

Datahantering och preparering. Upp till 80% av arbetstiden i ett AI-projekt går åt till att förbereda data, inte till att bygga modeller. Om den infrastruktur som hanterar data är dyr, fragmenterad eller kräver manuellt arbete är det en direkt kostnad som sällan syns i en GPU-kalkyl.

MLOps-overhead. Varje ny modell behöver versioneras, testas, deployeras och monitoreras. Utan ett standardiserat MLOps-lager gör varje team det på sitt sätt, vilket multiplicerar arbetstiden. Det är en organisatorisk kostnad, men den är lika real som en fakturarad.

Inlåsning och migrering. Om ni bygger era pipelines djupt integrerade med en specifik molnleverantör är bytet senare dyrt – inte bara tekniskt utan också i arbetstid och potentiellt i avbrott. Det är en kostnad som inte syns alls i år ett.

Hur en rimlig TCO-kalkyl ser ut

En genomtänkt TCO för AI-infrastruktur bör inkludera:

• Hårdvara eller molnkostnad
• Energi och kylning (för on-prem)
• Driftspersonal eller managed service-kostnad
• MLOps-plattform och verktyg
• Datalagrings- och rörelsekostnader
• Kostnaden för att inte ha kontroll – det vill säga risken för leverantörslåsning, compliance-problem och oförutsedda migreringar

Det är inte en enkel uträkning. Men det är en nödvändig en – särskilt när AI börjar ta plats som en affärskritisk funktion snarare än ett sidoprojekt.

Vad vi ser hos kunderna

Vi på Aixia har de senaste åren hjälpt organisationer att göra just den här analysen. Bilden är ganska konsekvent: de som räknar ordentligt på TCO väljer nästan alltid en hybridmodell – egna resurser för kärnworkloads, med flexibel kapacitet vid behov – och en plattform som gör driftskostnaden förutsägbar.

Det är inte ett argument mot molnet. Det är ett argument för att räkna på det ordentligt.

Om ni vill gå igenom er egen situation är vi gärna med i det samtalet. Kontakta oss på Aixia eller börja utforska AiQu på aiqu.ai.

Latest News

När AI-infrastrukturen blir måltavlan: Lärdomar från attacken mot LiteLLM

Supply chain-attacken mot LiteLLM visar att cyberhoten flyttat in i AI:s maskinrum….
Läs mer

MLOps som hygienfaktor: När maskininlärning blir industriell verklighet

AI har blivit kärnverksamhet. MLOps är nu en hygienfaktor – precis som DevOps var för mjukvara. Lär dig skillnaden mellan…
Läs mer

Den fysiska verkligheten bakom digital framgång: Varför infrastruktur är hjärtat i din verksamhet

Bakom varje framgångsrik digital tjänst finns en fysisk verklighet. Upptäck varför IT-infrastruktur är hjärtat i din verksamhet och hur Aixia…
Läs mer

2027: När AI slutar träna och börjar tänka i realtid

2027 blir året då AI växlar från träningsläge till realtidsinferens. Upptäck hur svenska företag måste ställa om sin infrastruktur för…
Läs mer