De flesta AI-projekt misslyckas inte på grund av modellerna. De misslyckas på grund av datan under.
Det är en obekväm sanning för alla oss som jobbar med AI-infrastruktur. Vi vill gärna prata om GPU:er, DGX-system och stora språkmodeller. Men efter att ha varit inne i tillräckligt många organisationer som står inför samma beslut har vi lärt oss något enkelt: den som börjar med hårdvaran hamnar ofta fel.
Det riktiga arbetet – det som avgör om AI-satsningen kommer att leverera värde eller bli ett dyrt pilotprojekt som aldrig skalas upp – händer ett steg tidigare. Det handlar om datan. Hur den flödar, vem som äger den, hur den definieras, och om den faktiskt går att lita på.
Samma mönster, gång på gång
När vi kartlägger datalandskapet hos större organisationer dyker samma utmaningar upp i ungefär samma ordning.
En eller två personer vet hur det hänger ihop. Det finns kritiska rapporter som bara en handfull personer förstår hur de byggs. Semestertider blir sårbara. Onboarding av nya teammedlemmar tar månader.
Definitionerna spretar. ”Storkund” betyder en sak på ekonomi, en annan på sälj och en tredje på marknad. När ledningen vill veta hur många storkunder företaget har får de tre olika svar – och ingen vet vilket som är rätt.
Mellanlager har växt fram organiskt. Det finns Excel-filer, SharePoint-listor och semi-officiella databaser som dagligen matar rapporter och beslut, men som ingen formellt äger. När de går sönder är det inte alltid någon som märker det direkt.
Stamdata saknas. Samma produkt ligger registrerad under fem olika namn i fem olika enheter. Totalsiffror kräver manuellt matchningsarbete varje månad. Det blir fel, och det tar tid.
Det låter kanske bekant. Det är sällan någon enskild organisations fel – det är helt enkelt så datalandskap växer när verksamheten utvecklas snabbare än arkitekturen.
Problemet med att lägga AI ovanpå
Det frestande är att hoppa över grundarbetet och köra igång AI-satsningen direkt. ”Vi tränar en modell på det vi har, så får vi se.” Det går. Men resultatet blir sällan det man hoppats på.
En språkmodell som ska svara på frågor om företagets försäljning behöver veta vilken siffra som är den rätta. En prediktionsmodell som ska optimera prissättning behöver historisk data som är konsistent över tid. En AI-agent som ska hjälpa säljteamet behöver en produktkatalog där samma produkt inte ligger registrerad under olika namn i olika enheter.
När grunden saknas blir AI:n ett förstoringsglas för organisationens befintliga problem. Felaktiga rapporter blir felaktiga svar – fast nu snabbare, snyggare och med större självförtroende.
Den goda nyheten
De flesta organisationer vi möter har mer än de tror. Det finns engagerade medarbetare med stark datakompetens, fungerande automatisering, etablerade BI-verktyg och en ledning som vill framåt. Utmaningen är sällan att börja från noll. Den ligger i att formalisera, dokumentera och skala det som redan finns.
Det första steget är alltid att få en ärlig bild av nuläget. Inte en powerpoint, utan en riktig kartläggning: var skapas datan, hur transformeras den, vem äger den, och var finns de kritiska gapen mellan nuläge och det man vill uppnå?
Arbetet görs bäst genom intervjuer med ett tvärsnitt av verksamheten – ledning, ekonomi, IT, kommersiella funktioner och operativa enheter. Teknisk kartläggning i all ära, men datans verkliga problem sitter oftast i hur organisationen använder den.
Vad man hittar, och vad man gör av det
En strukturerad datakartläggning ger typiskt:
- En konkret bild av styrkor att bygga vidare på och de specifika svagheter som bromsar utvecklingen
- En gap-analys som visar avstånden mellan nuläge och målbild
- En prioriterad åtgärdslista uppdelad i snabbvinster, prioriterade och planerade insatser
- Ett beslutsunderlag för kommande investeringar i plattform, verktyg och organisation
Många upptäcker att en betydande del av värdet kan frigöras i fas 1 – alltså inom tre månader, med befintliga resurser. Det handlar om att dokumentera det som redan finns, införa enkla hälsokontroller för dataflöden, strukturera rapportbeställningar och bygga en första version av en KPI-katalog. Inget av det kräver ny teknik. Allt av det skapar momentum.
De större satsningarna – central produktkatalog, semantiskt lager, data observability-plattform – är fortfarande relevanta. Men de får betydligt bättre förutsättningar att lyckas när grundarbetet är gjort.
Varför Aixia gör det här
Vi är kända för AI-infrastruktur. Skandinaviens enda NVIDIA DGX SuperPOD-certifierade partner, och vi bygger GPU-plattformar för några av regionens mest krävande AI-workloads.
Men vi har också sett tillräckligt för att veta att en AI-plattform utan en genomtänkt dataplattform är en dyr lösning på fel problem. Därför börjar vi ofta i datan. Inte för att sälja mindre hårdvara – utan för att de kunder som kommer längst med AI är de som gjort grundarbetet först.
Vill du veta hur din organisation står sig? Vi gör strategiska datakartläggningar som hjälper dig att förstå nuläget, identifiera gap och lägga en realistisk plan för att bygga en AI-redo dataplattform. Hör av dig, så tar vi ett första samtal om var ni står idag.


