Vad kostar er AI egentligen? En guide till TCO för AI-infrastruktur

Det börjar nästan alltid likadant. Bolaget testar ett AI-projekt i molnet, ser lovande resultat, och beslutar sig för att skala. Sedan dimper fakturan. Plötsligt pratar vi inte längre om en experimentbudget – vi pratar om en löpande driftskostnad som ingen riktigt räknat på.

TCO – Total Cost of Ownership – är ett välkänt begrepp i IT-världen. Men för AI-infrastruktur är det mer komplext och oftare felmissat än för nästan någon annan teknikinvestering. Det beror på att kostnaderna är osynliga på olika ställen beroende på om man kör i molnet, on-prem, eller en hybridlösning.

Det här är vår genomgång. Inte för att skrämma upp någon, utan för att ge en faktisk grund för att fatta rätt beslut.

Varför molnkalkylen spricker vid skalning

Molnleverantörer är duktiga på att erbjuda låga tröskelkostnader. Det är enkelt att komma igång, och de första tusen kronorna i GPU-tid känns hanterbart. Problemet uppstår när ni går från att träna en modell till att köra den kontinuerligt i produktion.

En H100-instans i hyperscaler-molnet kostar ungefär 25–35 kr per timme. Det låter rimligt – tills ni räknar på att en produktionsmodell kan behöva köra 24/7. Det blir snabbt 200 000–250 000 kr per månad, per GPU. Och de flesta seriösa AI-miljöer behöver mer än en.

Därtill tillkommer egress-kostnader (att flytta data ut ur molnet), lagringskostnader som skalas med datamängd, och licenskostnader för plattformsverktyg som ofta är dolda i de initiala utvärderingarna. Kostnader som är svåra att se i en pilotfas, men som syns tydligt i kvartalsrapporten.

On-prem underskattar driftkostnaden

Egna servrar och GPU-kluster har naturligtvis en annan kostnadsprofil. Investeringen är större initialt, men marginalkostnaden per GPU-timme är avsevärt lägre när hårdvaran väl är betald. Det är det enkla argumentet för on-prem – och det stämmer, men det är inte hela bilden.

Det som underskattas är driftkostnaden. Att underhålla ett GPU-kluster kräver kompetens som inte är billig. Kylning, el, nätverksinfrastruktur, uppdateringar, felsökning – allt detta är reella kostnader som sällan är med i den initiala beräkningen. Och om ni inte har ett dedikerat team för det kan on-prem snabbt kosta mer i tid och frustration än vad molnet kostar i kronor.

Det är här en managed plattform som AiQu förändrar kalkylen. Ni får on-prem-kontroll och kostnadseffektivitet vid skalning, men utan att bygga upp hela driftorganisationen själva.

De tre kostnader som nästan alltid missas

Oavsett om ni kör i moln eller on-prem finns det tre kostnader som konsekvent underskattas i AI-TCO-kalkyler:

Datahantering och preparering. Upp till 80% av arbetstiden i ett AI-projekt går åt till att förbereda data, inte till att bygga modeller. Om den infrastruktur som hanterar data är dyr, fragmenterad eller kräver manuellt arbete är det en direkt kostnad som sällan syns i en GPU-kalkyl.

MLOps-overhead. Varje ny modell behöver versioneras, testas, deployeras och monitoreras. Utan ett standardiserat MLOps-lager gör varje team det på sitt sätt, vilket multiplicerar arbetstiden. Det är en organisatorisk kostnad, men den är lika real som en fakturarad.

Inlåsning och migrering. Om ni bygger era pipelines djupt integrerade med en specifik molnleverantör är bytet senare dyrt – inte bara tekniskt utan också i arbetstid och potentiellt i avbrott. Det är en kostnad som inte syns alls i år ett.

Hur en rimlig TCO-kalkyl ser ut

En genomtänkt TCO för AI-infrastruktur bör inkludera:

• Hårdvara eller molnkostnad
• Energi och kylning (för on-prem)
• Driftspersonal eller managed service-kostnad
• MLOps-plattform och verktyg
• Datalagrings- och rörelsekostnader
• Kostnaden för att inte ha kontroll – det vill säga risken för leverantörslåsning, compliance-problem och oförutsedda migreringar

Det är inte en enkel uträkning. Men det är en nödvändig en – särskilt när AI börjar ta plats som en affärskritisk funktion snarare än ett sidoprojekt.

Vad vi ser hos kunderna

Vi på Aixia har de senaste åren hjälpt organisationer att göra just den här analysen. Bilden är ganska konsekvent: de som räknar ordentligt på TCO väljer nästan alltid en hybridmodell – egna resurser för kärnworkloads, med flexibel kapacitet vid behov – och en plattform som gör driftskostnaden förutsägbar.

Det är inte ett argument mot molnet. Det är ett argument för att räkna på det ordentligt.

Om ni vill gå igenom er egen situation är vi gärna med i det samtalet. Kontakta oss på Aixia eller börja utforska AiQu på aiqu.ai.

Latest News

Vad kostar er AI egentligen? En guide till TCO för AI-infrastruktur

TCO för AI-infrastruktur: Molnet ser billigt ut tills ni skalar. Här är de dolda kostnaderna – och tre saker som…
Läs mer

Agentic AI: En spännande framtid eller en arkitektonisk huvudvärk?

Agentic AI är mer än en buzzword. Agenter planerar och agerar självständigt, men det ställer helt nya krav på kostnadskontroll,…
Läs mer

De fem misstagen vi ser om och om igen när organisationer kör AI i molnet

Fem misstag vi ser om och om igen när organisationer kör AI i molnet – från TCO-kalkyler som spricker till…
Läs mer

AI i tillverkning: pilotprojekten är över

Fictiv och MISUMIs nya rapport visar att AI-adoptionen i tillverkning hoppat från 87% till 93%. Men pilotprojekten är över –…
Läs mer