Motion till riksdagen
2025/26:3320
av Leila Ali Elmi m.fl. (MP)

För en säker och hållbar AI


 

Förslag till riksdagsbeslut

  1. Riksdagen ställer sig bakom det som anförs i motionen om att införa krav på oberoende säkerhetsgranskning av de mest kraftfulla AI-systemen och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att säkerställa att AI-system alltid har en robust nödavstängning (off-switch) som kan stänga av tekniken i nödsituationer och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att göra miljökonsekvensbedömningar obligatoriska för stora AI-system och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att kräva att datacenter använder förnybar energi och hållbar vattenhantering och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att ta fram klimatcertifiering för AI-system som används i offentlig sektor, och detta tillkännager riksdagen för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att stärka transparensen så att medborgare alltid vet när de interagerar med AI och hur deras data används, oavsett riskklass, och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att införa tydliga regler för ansvar om AI orsakar skada, och detta tillkännager riksdagen för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att stödja forskning om trygg, energieffektiv och säker AI och tillkännager detta för regeringen.

Motivering

Artificiell intelligens kan bli ett av vår tids mest värdefulla verktyg. Den kan hjälpa oss att hitta nya botemedel, bekämpa klimatförändringar och effektivisera samhället. Men forskare som Max Tegmark och Geoffrey Hinton varnar för att AI också innebär allvarliga risker. Dessa risker är större än vad dagens lagstiftning kan hantera.

EU:s AI-förordning, AI Act, är världens första stora försök att reglera AI. Den delar in systemen i olika riskklasser. Oacceptabel risk förbjuds helt, till exempel social scoring. Hög risk får användas men under hårda krav på säkerhet, dokumentation och mänsklig tillsyn. Begränsad risk omfattas av vissa transparenskrav, som att användare ska få veta när de interagerar med en chatbot. Minimal risk omfattas inte av särskilda krav, exempelvis AI i datorspel. Dessutom finns regler för vissa särskilt kraftfulla modeller, så kallade foundation models.

AI Act är ett viktigt steg, men den lämnar tre avgörande luckor. För det första saknas krav på oberoende säkerhetsgranskning. För hög-risk AI-system krävs en överensstämmelseprövning, men ofta görs den av företaget självt. Endast i vissa fall krävs extern granskning. Detta är otillräckligt. Flygplan får inte tas i bruk utan oberoende säkerhetskontroller. Detsamma borde gälla de mest kraftfulla AI-systemen.

För det andra saknas uttryckligt krav på en nödavstängning. AI Act talar om human oversight, men det finns inget krav på en off-switch som gör det möjligt att stänga av ett system i tid om det beter sig farligt. Inom andra högriskteknologier, som flyg och kärnkraft, är robusta säkerhetsmekanismer en självklarhet. AI bör omfattas av samma krav.

För det tredje är ansvaret vid skada otydligt. AI Act reglerar dokumentation och tillsyn, men klargör inte vem som är ansvarig om ett AI-system orsakar skada. EU har lagt fram förslag i form av AI Liability Directive och en uppdatering av Product Liability Directive, men dessa är ännu inte på plats. Det innebär att ansvarsfrågan i praktiken är olöst.

Utöver dessa brister saknar AI Act ett helhetsgrepp om AI:s klimatpåverkan. FN:s miljöprogram har visat att träningen av stora AI-modeller kräver enorma mängder energi och vatten, samtidigt som datacenter bidrar till utsläpp och e-avfall.

Sverige bör därför gå före och komplettera EU:s regler. Utan oberoende säkerhetsgranskningar riskerar kraftfulla AI-system att tas i bruk utan tillräcklig kontroll. Utan robusta nödavstängningar finns inga garantier för att vi kan stoppa system som utvecklar farliga beteenden. Utan tydliga ansvarslagar riskerar medborgare att stå utan skydd. Utan klimatkrav riskerar AI att bli en belastning för miljön snarare än en del av lösningen.

Precis som vi aldrig skulle acceptera flygplan utan nödavstängningar eller kärnkraftverk utan flera lager av säkerhetssystem kan vi inte acceptera att AI släpps fri utan robusta säkerhetsmekanismer. Sverige bör därför ta täten, stärka lagstiftningen och säkerställa att AI utvecklas på ett sätt som gagnar både mänskligheten och planeten.

 

 

Leila Ali Elmi (MP)

 

Camilla Hansén (MP)

Jan Riise (MP)