AI förknippas ofta med molntjänster. Men för företag som hanterar känsliga dokument, kunddata eller affärskritiska beräkningar är det ett tveeggat svärd. När allt skickas bort för analys uppstår både säkerhets- och integritetsrisker. Därför växer nu intresset för lokala AI-modeller – språkmodeller och analysverktyg som körs helt inom ditt eget nätverk.

Med rätt hårdvara kan du få samma funktioner som i molnet: dokumentanalys, automatiserad strukturering, transkribering av möten och processning av stora interna dataset. Skillnaden är att allt sker lokalt, med full kontroll över dataflödet.

Svenska AI-modeller och internationella alternativ


Tre modeller som för närvarande är särskilt intressanta för lokal drift:
AI Sweden-modellerna – tillgängliga via Hugging Face och med mer information på ai.se. Dessa är tränade med fokus på svenska språket och lämpar sig för allt från kundtjänstlösningar till intern textanalys.
Deepseek R1 – utvecklad för att arbeta effektivt med större textmängder. Modellen är stark på deduktiv analys, research och rapportgenerering.
Llama 4 – Metas senaste generation. Finns i flera storlekar, från varianter på några få miljarder parametrar till fullskaliga modeller på över 100B. Flexibel för både utvecklare och företag som vill ha kontroll över sin infrastruktur.


Vad innebär lokal användning i praktiken när säkerhet och känsliga uppgifter inte kan vara i molnet?


Att hantera stora LLMs är komplext, och lokala lösningar är ofta nödvändiga på grund av regelverk som GDPR, sekretesslagar inom vård och forskning, samt upphandlingskrav. Detta driver många organisationer att bygga egna AI-miljöer istället för att använda molntjänster.

Exempel på använingsområden för AI lösningar hos företagen:

Dokumentgenomgång: Att indexera och analysera tusentals PDF:er kräver både högt RAM-utrymme och snabb disk-I/O. NVMe-lagring med minst 3 500 MB/s läshastighet är att rekommendera.
Transkribering: Modeller för tal-till-text kan köras på CPU, men för realtidsprestanda behövs GPU-acceleration. Här är CUDA-stödet från Nvidia avgörande.
Databehandling: När hundratusentals datapunkter ska analyseras parallellt blir minnesbandbredd en flaskhals. HBM-minne eller GDDR6X med hög bandbredd gör skillnad.


Rekommenderade systemkrav för AI modellerna.


Att prata om “minimikrav” är missvisande. Det handlar snarare om matchning mellan modellstorlek och hårdvarukapacitet.

CPU: 16–32 kärnor (AMD Ryzen Threadripper eller Intel Xeon) ger tillräcklig parallellism för att hantera preprocessing och koordinering av GPU-laster.
GPU:
För mindre modeller (<7B parametrar): RTX 4070 Ti med 12 GB VRAM kan räcka.
För mellanstora modeller (13B–30B): RTX 4090 eller motsvarande med 24 GB VRAM är minimigräns.
För riktigt stora modeller (65B+): Professionella kort som Nvidia A6000 eller H100 rekommenderas.
RAM: 64 GB bör betraktas som baslinje, 128 GB ger utrymme för tunga dataset.
Lagring: NVMe SSD, helst PCIe Gen4 eller Gen5, för att undvika I/O-flaskhalsar. Minst 2 TB om du arbetar med större corpora.

För bärbara system är kompromisser oundvikliga, men dagens AMD-processorer kombinerade med RTX 4080/4090 mobile-varianter klarar förvånansvärt mycket. VRAM-mängden blir dock den kritiska begränsningen.

Maskinerna bakom prestandan är inte alltid självklar

Vi på Compliq bygger arbetsstationer och bärbara datorer specifikt för dessa krav. Våra konfigurationer är inte bara baserade på rå prestanda, utan optimerade för AI-workloads: korrekt kylning, stabil strömförsörjning, och balanserade komponentval så att GPU inte blir överdimensionerad i förhållande till CPU eller RAM.

Det gör att du kan starta en lokal instans av en svensk språkmodell utan att äventyra driftsäkerheten. Och eftersom vi arbetar både med Nvidia:s senaste GPU-er och AMD:s mest kraftfulla processorer, kan vi dimensionera maskinen exakt efter ditt behov – från en portabel AI-laptop till en fullskalig träningsserver.

Lokala AI-modeller är mer än ett experiment – de är en konkret lösning för företag som vill kombinera AI-drivna produktivitetsvinster med full kontroll över sina data. Men att lyckas handlar om att förstå de tekniska kraven och bygga en infrastruktur som möter dem.

Därför är hårdvaran lika central som modellen du väljer. Med Compliq får du båda delarna: datorer som är byggda för att klara tunga AI-laster, och vägledning kring vilka modeller som passar bäst för ditt användningsområde.

För mer information om unika datorbyggen för AI kontakta:

Anders Malm

am@compliq.se

‭046-38 47 73‬

Senaste