Nyhet: VAST revolutionerar AI-prestanda – och Aixia levererar lösningen
VAST Data har precis lanserat VUA (VAST Undivided Attention) – en ny öppen mjukvaruteknik som kraftigt förbättrar hastigheten och effektiviteten vid AI-bearbetning. Aixia är stolta över att som VAST-partner kunna erbjuda denna banbrytande lösning till våra kunder.
Vad handlar det om?
När AI-modeller, som exempelvis stora språkmodeller (LLM), genererar text och analyser, skapas enorma mängder data (så kallade tokens) i realtid. Dessa tokens måste normalt lagras i serverns GPU-minne för att undvika tidskrävande omräkningar. Problemet är att GPU-minnet snabbt blir fullt – och då bromsas hela processen.
VASTs VUA löser detta genom att smart lagra dessa tokens på blixtsnabba NVMe-anslutna SSD-diskar. På så vis får GPU-servrarna tillgång till betydligt mer ”virtuellt” minne, utan att prestandan drabbas. Detta betyder att AI-tjänster kan skala upp snabbare, hantera mer komplexa frågor och samtidigt minska både svarstider och hårdvarukostnader.
Vad betyder det för en CFO?
Kortare svarstider = bättre användarupplevelse och konkurrensfördelar.
Mindre behov av att köpa fler dyra GPU:er.
Ökad effektivitet och lägre TCO (Total Cost of Ownership) för AI-infrastruktur.
Vad betyder det För en tekniker:
VUA skapar ett nytt cache-lager mellan GPU, CPU och NVMe, integrerat med GPUDirect.
Global, delad cache som kan hantera miljarder tokens och minimera ”cache misses”.
292 % snabbare token-generering vid tester – och stöd för framtidens allt större AI-modeller.