Kinesiska AI-verktyg: dold risk för Sverige?
Under de senaste åren har användningen av kinesiska AI-verktyg ökat, även inom svenska myndigheter. När Arbetsförmedlingen nyligen valde att snabbt stänga ner en kinesisk AI-bot, väcktes frågor om säkerhet och långsiktiga konsekvenser. Vad innebär det egentligen för Sverige när känsliga system använder teknik från Kina?
Bakgrunden till beslutet
Arbetsförmedlingens IT-avdelning testade programvaran Qwen 3, en ChatGPT-liknande AI-modell utvecklad i Kina. Verktyget installerades på myndighetens egna servrar och var endast tillgängligt för interna användare, utan koppling till det öppna internet. Detta minskade risken för omedelbara dataläckor, enligt cybersäkerhetsexperten Dan Bergh Johnsson från Omegapoint. Enligt Aftonbladet kan dessa verktyg innebära en risk för Sverige på grund av deras syn på medborgare.
Långsiktiga risker med kinesiska AI-verktyg
Trots att den tekniska lösningen ansågs säker på kort sikt, pekar experter på att kinesiska AI-verktyg kan innebära andra typer av risker. “Det finns givetvis en ideologisk partiskhet. De här modellerna avfärdar all kritik mot Kina gällande mänskliga rättigheter,” säger Dan Bergh Johnsson. Det handlar alltså inte bara om teknik, utan även om värderingar och informationskontroll. Kimi AI, ett annat kinesiskt AI-alternativ, har också uppmärksammats för sina stora kontextfönster och potentiella påverkan.
Ideologisk påverkan och informationssäkerhet
AI-modeller tränas på enorma mängder data och kan bära med sig avsändarlandets synsätt. När svenska myndigheter använder AI från Kina, finns risken att information filtreras eller vinklas på sätt som inte är förenliga med svenska värderingar. Detta kan påverka allt från beslutsfattande till hur medborgare bemöts av myndigheter.
Hur kan Sverige skydda sig?
För att minska riskerna krävs tydliga riktlinjer för vilka AI-verktyg som får användas inom offentlig sektor. Transparens kring ursprung, datalagring och hur AI-modeller tränas är avgörande. Det är också viktigt att kontinuerligt utvärdera både tekniska och etiska aspekter av nya digitala verktyg. Enligt PC-tidningen är det viktigt att förstå vad DeepSeek AI är och om det är säkert att använda, vilket kan ge insikter i hur man bäst skyddar sig.
Faq om kinesiska AI-verktyg
Varför är kinesiska AI-verktyg en risk för Sverige?
De kan innehålla ideologiska partiskheter och riskerar att filtrera information på sätt som inte stämmer överens med svenska värderingar. Dessutom finns oro för datasäkerhet och kontroll över känslig information.
Hur användes AI-verktyget på Arbetsförmedlingen?
Det installerades på interna servrar och användes endast av IT-avdelningen, utan koppling till internet, vilket minskade risken för omedelbara dataläckor.
Vad säger experter om långsiktiga risker?
Experter som Dan Bergh Johnsson menar att det finns risk för ideologisk påverkan och att AI-modeller kan avfärda kritik mot Kina, särskilt kring mänskliga rättigheter.
Hur kan svenska myndigheter skydda sig?
Genom att ställa krav på transparens, välja AI-verktyg med känd ursprung och regelbundet utvärdera både tekniska och etiska risker.








