Motion till riksdagen
2023/24:464
av Håkan Svenneling m.fl. (V)

Förbud mot mördarrobotar


1   Förslag till riksdagsbeslut

  1. Riksdagen ställer sig bakom det som anförs i motionen om att Sverige ska arbeta för en bindande internationell konvention mot helt autonoma vapensystem och tillkännager detta för regeringen.
  1. Riksdagen ställer sig bakom det som anförs i motionen om att Sverige aldrig ska vara med och främja utvecklingen av eller delta i annan verksamhet som rör helt autonoma vapensystem och tillkännager detta för regeringen.

2   Förbud mot mördarrobotar

Helt autonoma vapensystem är vapen som förmår agera utan mänsklig kontroll. De är programmerade att agera på egen hand. Till skillnad från en obemannad drönare som kontrolleras av en pilot som fjärrstyr den har helt autonoma vapensystem förprogram­merade algoritmer som själva väljer ut sina mål. Sådana system kallas ofta för killer robots eller mördarrobotar, eftersom de har programmerats till att avgöra frågor om liv och död. Systemet kan appliceras på t.ex. drönare, fordon, flygplan eller båtar.

De senaste 10 åren har antalet länder och företag som arbetar med teknologin ökat kraftigt. Utvecklingen mot mindre och billigare system och allt mer avancerad AI gör det möjligt för allt fler länder och även icke-statliga aktörer att skaffa autonoma vapensystem. Till skillnad från kärnvapen krävs inte några råmaterial som är svåra och dyra att hantera. I dag utvecklar tolv stater autonoma vapensystem. Däribland Kina, Ryssland, Frankrike, Storbritannien och USA. Även Sverige bidrar till utvecklingen genom företaget Saab som partner till det franska företaget Dassault.

Det finns redan en lång rad vapensystem i bruk som i olika utsträckning går att använda delvis autonomt. Det statligt ägda turkiska företaget STM har utvecklat KARGU, en typ av små kamikazedrönare som kan operera i svärmar om 30 enheter och har förmågan att självständigt attackera sitt mål. STM har levererat ca 150 KARGU till den turkiska armén och företaget räknar med att de kommer att användas längs med gränsen till Syrien. Det har kallats ett av de första systemen som kan hitta, spåra och döda människor utan mänsklig inblandning.

Fredsorganisationer varnar för hur regionala konflikter riskerar att utnyttjas i utvecklingen av systemen. Som exempel kan nämnas hur svaga och auktoritära regeringar på den afrikanska kontinenten har utvecklat semiautonoma vapen (som enkelt skulle kunna konverteras till helt autonoma vapensystem) i kampen mot våldsbejakande extremism. Man fruktar att Afrika kan bli ett experimentfält för automatiska vapensystem. Med tanke på Kinas ökande inflytande i Afrika är det en fråga av stor säkerhetspolitisk tyngd.

2.1   Artificiell intelligens och krigföring

Artificiell intelligens (AI) är ett samlingsbegrepp för maskinbaserade system med förmågan att efterlikna mänsklig intelligens. Utvecklingen går snabbt framåt och har potential att ge en mängd ekonomiska och samhälleliga vinster. AI har därmed många positiva sidor och erbjuder omfattande möjligheter till utveckling och effektivisering, men det finns också mindre positiva sidor. Det handlar t.ex. om risker för bristande integritet, mer övervakning, gråzonsproblematik och inte minst allt mer avancerade helt autonoma vapensystem.

AI-utvecklingen lyfter en rad frågor om bl.a. ägande, demokratisk kontroll och etiska principer. I mars 2023 uppmanade en rad ledande AIforskare och experter världen att pausa utvecklingen av AI i ett halvår medan vi ser över vilka risker som finns och hur de kan motverkas. Experterna menade att den nödvändiga försiktigheten och planeringen kring AI saknas. Det finns behov av en öppen och transparent debatt om AI och om den reglering som måste till.

Att använda sig av AI i militära syften är inte i sig problematiskt. Det finns områden där teknologin kan användas för goda ändamål som t.ex. minröjning eller cybersäkerhet. Men att överlåta etiska avgöranden till algoritmer kan aldrig vara acceptabelt i en fri, demokratisk och rättssäker värld.

Vänsterpartiet anser att etiska, integritets- och säkerhetsmässiga aspekter måste väga tungt vid all utveckling av AI, oavsett om det sker inom näringslivet, välfärden, rättsväsendet eller försvaret av Sverige. Vi vill se en nationell policy med etisk kod för användning och utveckling av AI. Läs mer i våra motioner Demokrati, integritet och transparens (2023/24:V627) och Cybersäkerhet (2023/24:V321).

2.2   Ett starkt motstånd

Frågan om autonoma vapensystem är minst sagt kontroversiell. I dag saknas ett tydligt regelverk för sådana vapen. Detta trots att helt autonoma vapensystem har beskrivits som revolutionerande för framtida krigföring och betydelsen har jämförts med användandet av krut liksom med atombomben.

En lång rad stater har efterlyst någon typ av reglering och ytterligare andra vill se ett förbud. FN:s generalsekreterare António Guterres har kallat autonoma vapen ”moraliskt motbjudande och politiskt oacceptabla”.

Ett tekniskt system är inte kapabelt att avgöra etiska svårigheter. För ett automatiskt vapensystem är människor enbart objekt och data, inte personer. Algoritmer kan aldrig värdesätta ett människoliv eller analysera proportionaliteten i en attack. Civilsamhällesorganisationer benämner detta ”digital avhumanisering”. Vi vet också sedan tidigare att AI-teknik reproducerar redan existerande orättvisor och fördomar om t.ex. kön, hudfärg och etnicitet. Beslut som rör människors liv och hälsa kan inte överlåtas åt ett sådant system.

Helt autonoma vapensystem sätter även ansvarsfrågan ur spel. Vem är ansvarig för folkrättsbrott begångna av en robot? Vem ska ställas till svars för mord på regimkritiker eller etnisk utrensning utförda av helt automatiska drönare? Fredsorganisationer varnar också för risken att autonoma vapensystem sänker trösklarna för krig, eftersom man inte behöver använda sig av soldater. Ett mycket litet antal personer kan med hjälp av systemen göra mycket stor skada.

Civilsamhällesorganisationer över hela världen har gått samman för att stoppa utvecklingen av autonoma vapensystem i kampanjen Stopp Killer Robots. I FN pågår det sedan 2014 samtal om hur autonoma vapensystem ska hanteras. Sveriges engage­mang i frågan har varit svagt och man har i första hand drivit på för en politisk deklara­tion och en uppförandekod. Den förra regeringen visade dock visst engagemang och förordade ett förbud. Den nuvarande moderatledda regeringen med stöd av Sverige­demokraterna har däremot varit oroväckande tyst.

Flera av världens största vapenföretag arbetar med teknologi som kan användas i autonoma vapensystem, men utan att ha någon tydlig policy för hur man säkrar mänsklig kontroll. Ett fåtal företag har gjort klart att man anser att en människa alltid måste stå i kontakt med vapensystemet och ta de avgörande besluten. Det är tydligt att det inte räcker att lita till den goda viljan hos de företag som samtidigt genererar stora pengar på utvecklingen. Vänsterpartiet menar att helautonoma vapensystem bör förbjudas enligt internationell lag.

Sverige ska arbeta för en bindande internationell konvention mot helt autonoma vapensystem. Detta bör riksdagen ställa sig bakom och ge regeringen till känna.

Sverige ska aldrig vara med och främja utvecklingen av eller delta i annan verksam­het som rör helt autonoma vapensystem. Detta bör riksdagen ställa sig bakom och ge regeringen till känna.

 

 

Håkan Svenneling (V)

 

Andrea Andersson Tay (V)

Kajsa Fredholm (V)

Hanna Gunnarsson (V)

Lotta Johnsson Fornarve (V)

Linda W Snecker (V)