Kategori: Säkerhet / Compliance / AI-infrastruktur
Medan EU AI Act får lejonparten av uppmärksamheten i AI-debatten har NIS2 redan trätt i kraft – och det är ett direktiv med direkta konsekvenser för hur ni hanterar er AI-infrastruktur idag, inte om ett år.
NIS2 (Network and Information Security Directive 2) ersatte det ursprungliga NIS-direktivet och trädde i kraft i EU i oktober 2024. Det utvidgar kraven på cybersäkerhet och incidentrapportering till betydligt fler sektorer och organisationer än tidigare.
Om ni verkar inom energi, transport, hälsa, offentlig förvaltning, digital infrastruktur, vattenförsörjning, finansiella marknader, eller livsmedel – eller om ni levererar till organisationer i dessa sektorer – är NIS2 sannolikt relevant för er. Och om er AI-miljö behandlar känslig operationell data, är en del av kritiska arbetsflöden, eller kopplar samman med externa system, är det direkt tillämpligt.
Vad NIS2 faktiskt kräver
NIS2 är inte ett verktygsspecifikt krav – det handlar om riskhantering och ansvar. Konkret innebär det att organisationer måste:
• Implementera tekniska och organisatoriska säkerhetsåtgärder
• Ha processer för att identifiera och rapportera incidenter inom 24 timmar (initial notifiering) och 72 timmar (detaljerad rapport)
• Säkerställa säkerhet i leverantörskedjan
• Att ledningen aktivt ansvarar för cybersäkerhetsarbetet – inklusive personligt ansvar vid allvarliga brister
Det sista är nytt och viktigt. Under NIS2 kan ledningspersoner hållas personligt ansvariga för bristande efterlevnad. Det är inte längre en IT-fråga som kan delegeras helt och hållet.
Varför AI-miljöer är särskilt exponerade
AI-system introducerar säkerhetsytor som många traditionella IT-säkerhetsramverk inte är designade för.
En tränad modell är en tillgång – den innehåller implicit kunskap från träningsdata, ibland inklusive känslig information. Frågan om var modellen lagras, vem som kan komma åt den och hur den skyddas är direkt relevant under NIS2.
Tränings- och inferens-pipelines hanterar ofta stora mängder data, ibland i realtid. Om dessa pipelines är dåligt isolerade eller integrerade med externa tjänster utan tydlig kontroll kan de utgöra en ingångspunkt för attacker eller dataintrång.
Molnbaserade AI-tjänster komplicerar bilden ytterligare. Om er AI körs på en extern leverantörs infrastruktur är ni fortfarande ansvariga för att säkerställa att leverantören uppfyller era NIS2-skyldigheter. Leverantörskedjans säkerhet är ett explicit krav i direktivet.
Fyra konkreta frågor att ställa om er AI-miljö
1. Var körs era AI-modeller och vem har åtkomst till dem?
Om svaret är ’i molnet hos en extern leverantör och vi är inte helt säkra på behörighetskontrollerna’, är det en röd flagga.
2. Hur hanterar ni incidenter i AI-systemet?
Om en modell börjar bete sig oväntat, om träningsdata läcker, eller om inferens-APIet utsätts för en attack – har ni en dokumenterad process för det? Har ni en tidslinje som möter NIS2:s 24-timmarskrav?
3. Hur är er leverantörskedja dokumenterad?
Vilka externa komponenter, API:er och tjänster ingår i er AI-miljö, och har ni bedömt deras säkerhetsprofil?
4. Är ledningen informerad och involverad?
Under NIS2 är det inte tillräckligt att IT-avdelningen hanterar frågorna. Ledningen behöver ha en faktisk förståelse för riskerna och vara aktivt engagerad i säkerhetsarbetet.
On-prem som ett svar på NIS2-kraven
En av de mer direkta konsekvenserna av NIS2 för AI-infrastruktur är att on-prem eller privat hosting i svenska datacenter ger en tydligare kontrollkedja. Ni vet var datan finns, ni äger infrastrukturen, och ni kan dokumentera åtkomstkontroller och säkerhetsåtgärder utan att behöva förlita er på en extern leverantörs certifieringsrapport.
Det är inte ett argument att molnet är osäkert. Det är ett argument för att tydlighet och kontroll är enklare att uppnå och dokumentera när ni äger er miljö.
Det är precis den typen av miljö Aixia bygger – med AiQu som plattform och svenska datacenter som grund.
Om NIS2-compliance är en aktiv fråga för er organisation är vi gärna med i samtalet om hur er AI-infrastruktur bör se ut. Kontakta oss på Aixia eller börja med aiqu.ai.


