Förslag till riksdagsbeslut
Artificiell intelligens kan bli ett av vår tids mest värdefulla verktyg. Den kan hjälpa oss att hitta nya botemedel, bekämpa klimatförändringar och effektivisera samhället. Men forskare som Max Tegmark och Geoffrey Hinton varnar för att AI också innebär allvarliga risker. Dessa risker är större än vad dagens lagstiftning kan hantera.
EU:s AI-förordning, AI Act, är världens första stora försök att reglera AI. Den delar in systemen i olika riskklasser. Oacceptabel risk förbjuds helt, till exempel social scoring. Hög risk får användas men under hårda krav på säkerhet, dokumentation och mänsklig tillsyn. Begränsad risk omfattas av vissa transparenskrav, som att användare ska få veta när de interagerar med en chatbot. Minimal risk omfattas inte av särskilda krav, exempelvis AI i datorspel. Dessutom finns regler för vissa särskilt kraftfulla modeller, så kallade foundation models.
AI Act är ett viktigt steg, men den lämnar tre avgörande luckor. För det första saknas krav på oberoende säkerhetsgranskning. För hög-risk AI-system krävs en överensstämmelseprövning, men ofta görs den av företaget självt. Endast i vissa fall krävs extern granskning. Detta är otillräckligt. Flygplan får inte tas i bruk utan oberoende säkerhetskontroller. Detsamma borde gälla de mest kraftfulla AI-systemen.
För det andra saknas uttryckligt krav på en nödavstängning. AI Act talar om human oversight, men det finns inget krav på en off-switch som gör det möjligt att stänga av ett system i tid om det beter sig farligt. Inom andra högriskteknologier, som flyg och kärnkraft, är robusta säkerhetsmekanismer en självklarhet. AI bör omfattas av samma krav.
För det tredje är ansvaret vid skada otydligt. AI Act reglerar dokumentation och tillsyn, men klargör inte vem som är ansvarig om ett AI-system orsakar skada. EU har lagt fram förslag i form av AI Liability Directive och en uppdatering av Product Liability Directive, men dessa är ännu inte på plats. Det innebär att ansvarsfrågan i praktiken är olöst.
Utöver dessa brister saknar AI Act ett helhetsgrepp om AI:s klimatpåverkan. FN:s miljöprogram har visat att träningen av stora AI-modeller kräver enorma mängder energi och vatten, samtidigt som datacenter bidrar till utsläpp och e-avfall.
Sverige bör därför gå före och komplettera EU:s regler. Utan oberoende säkerhetsgranskningar riskerar kraftfulla AI-system att tas i bruk utan tillräcklig kontroll. Utan robusta nödavstängningar finns inga garantier för att vi kan stoppa system som utvecklar farliga beteenden. Utan tydliga ansvarslagar riskerar medborgare att stå utan skydd. Utan klimatkrav riskerar AI att bli en belastning för miljön snarare än en del av lösningen.
Precis som vi aldrig skulle acceptera flygplan utan nödavstängningar eller kärnkraftverk utan flera lager av säkerhetssystem kan vi inte acceptera att AI släpps fri utan robusta säkerhetsmekanismer. Sverige bör därför ta täten, stärka lagstiftningen och säkerställa att AI utvecklas på ett sätt som gagnar både mänskligheten och planeten.
|
Leila Ali Elmi (MP) |
|
|
Camilla Hansén (MP) |
Jan Riise (MP) |