Motion till riksdagen
2017/18:2655
av Carl Schlyter (MP)

Förbjud autonoma dödliga vapensystem och reglera utvecklingen av artificiell intelligens


Förslag till riksdagsbeslut

  1. Riksdagen ställer sig bakom det som anförs i motionen om att Sverige ska utarbeta ett nationellt förbud mot autonoma dödliga vapensystem samt arbeta för internationella förbud där så är möjligt och tillkännager detta för regeringen.
  2. Riksdagen ställer sig bakom det som anförs i motionen om att utvärdera risker med artificiell intelligens för att säkerställa mänsklig kontroll och tillkännager detta för regeringen.

Motivering

Vi har redan internationella förbud mot personminor eftersom de dödar icke-diskriminerande oavsett om det är ett barn eller en fientlig soldat som trampar på den. Den ligger där beredd och dödar den som trampar på den.

Länge har också försvarsvapen med automatiska funktioner funnits som närskydds­system till fartyg av typen Phalanx eller CIWS, de är designade för att förstöra t ex inkommande missiler där det inte finns tid att invänta mänsklig målprioritering. Dessa system är dock ombord på fartyg där människor kan påverka situationen med kort varsel.

Nu har nya vapen som kan döda människor utan att det finns möjlighet för mänskliga beslut utvecklats eller är på väg att utvecklas. Till skillnad från personminor har dessa nya vapen förmågan att också offensivt söka upp offer från luften, havet eller marken.

De är också utrustade med mer avancerade sensorer och har även primitiv artificiell intelligens som stöd för beslut att sätta in en vapeninsats. Kännetecknet för ett autonomt dödligt vapen är att det inte är en människa som beslutar om en insats.

Forskare på en AI-konferens skrev 2015 på ett upprop mot dessa vapen.[1] Ledare för 116 företag som sysslar med artificiell intelligens från 26 länder skrev i augusti på ett upprop där de vill att FN förbjuder autonoma vapensystem.[2] I december 2016 inledde FN sitt arbete med frågan inom ramen för UN Review Conference of the Convention on Conventional Weapons. 13–17 november hålls den andra uppföljningskonferensen i ämnet i Genѐve.

Följande 19 länder har redan skrivit på att de eftersträvar ett förbud:

  1. Algeriet
  2. Argentina
  3. Bolivia
  4. Chile
  5. Costa Rica
  6. Cuba
  7. Ecuador
  8. Egypten
  9. Ghana
  10. Guatemala
  11. Vatikanen
  12. Mexiko
  13. Nicaragua
  14. Pakistan
  15. Panama
  16. Peru
  17. Palestina
  18. Venezuela
  19. Zimbabwe

Sverige borde ta initiativ inom ramen för nordiska rådet, EU, OSSE och FN för att stödja kampen för att undvika dessa vapen. Farhågorna är att de inte kommer att kunna skilja på stridande och icke-stridande samt att tröskeln för att starta ett krig sänks när risken att offra egna soldater blir mindre. Dessutom finns det en stor risk att de hamnar i orätta händer. När tekniken blir billig, lättillgänglig och miniatyriserad kommer det finnas en uppenbar risk att civila kommer drabbas och tröskeln till våld sänks. Risk finns också att kriminella eller terrorister skulle kunna få tag på dem. Kina har som första land från de permanenta staterna i säkerhetsrådet vid den senaste konferensen uttryckt tveksamhet kring att dessa vapen någonsin kan fungera utan att strida mot folkrätten.

Eftersom dessa vapen ännu inte finns tillgängliga i kommersiell skala finns det en möjlighet att förbjuda dem idag. Sverige bör därför snarast agera.

Bakgrund artificiell intelligens

Artificiell intelligens har stora möjligheter att hjälpa oss att fatta bättre beslut och öka det tekniska kunnandet. Men den har också möjligheten att övervaka oss och styra oss mot andra mål än de vi själva önskar. Redan idag finns enorma datamängder som kan analyseras med hjälp av AI. Dessa kan sedan användas för att förutsäga och även kontrollera mänskligt beteende. I ett senare skede kan även detta då ske automatiserat med hjälp av AI. Då uppstår en rad etiska dilemman och konflikter med nuvarande dataskyddsregler. Detta diskuteras i detalj i t ex denna avhandling.[3]

I dagspressen kan man ibland läsa om oron för att AI ska bli medveten eller bli ondskefull. Men det som oroar de som forskar i ämnet är snarare att AI ska bli intelligentare än oss och att det uppstår målkonflikter där de mål AI sätter upp för att lösa ett problem inte sammanfaller med de mål människor sätter upp.

Om vi vill ha ett vattenkraftverk vill vi inte döda myrorna i myrstacken i dalgången, men vi gör det för att vi inte anser att konsekvenserna för dem är skäl nog att avstå från en effektiv lösning för att få energi. Likaså kan en AI satt att lösa ett problem göra en annan värdering om lösningen är värd konsekvenserna än vad en människa hade gjort med samma intelligens eller kunskap. Men vad händer när vi inte längre har en chans att nå samma intelligens eller kunskap?

Hur utvecklar vi den etik och moral och kontroll över AI som gör att AI, inte av ondska men av ren effektivitet, väljer en utveckling som vi människor inte hade valt, eller som en demokratisk majoritet inte hade valt? Hur påverkar AI maktstrukturer i samhället och hur undviks maktkoncentration?

Problemet är inte huvudsakligen terminatorrobotar som förgör mänskligheten men att AI genom enkel uppkoppling mot internet med överlägsen intelligens och kunskap kan styra/betala människor att följa icke önskvärda mål eller en icke önskvärd samhällsutveckling. Eller för flertalet icke önskvärd utveckling.

Samhället behöver därför utveckla sin analysförmåga över hur vi vill använda AI och till vad det inte bör användas. Vi behöver veta vilka etiska, moraliska begränsningar som bör införas för AI samt hur big data ska tillgängliggöras till AI-system och med risk för förlorad kontroll över data och deras behandling. Idag oroar sig många för hur inflytande kan köpas genom kontroll av och kunskap kring vad som sker i sociala medier. I framtiden kan avancerad AI göra analyser som är bortom mänsklig förmåga att förstå eller kontrollera.

Det är därför av yttersta vikt att Sverige och andra länder påbörjar en diskussion kring riskerna och fördelarna med AI och hur utveckling bör regleras och kontrolleras.

Ansvaret för vad ett AI-system gör bör tydligt regleras så att det alltid finns människor att ställa till svars för vad en AI gör. Regler som gäller människor och företag bör också gälla AI så att AI inte används för insider trading eller andra marknadsmanipulationer eller manipulation av demokratin.

AI-system måste tydligt deklarera att det är en AI som människor interagerar med. Vi har sett hur Trump-bots och hur chatt-tjänster lurar folk att tro att det är riktiga människor på andra sidan, det är en form av falsk marknadsföring.

AI har en enorm förmåga att samla och bearbeta hemlig eller känslig information. Det bör tydligt regleras hur kontroll av sådan information ska ske så att det är möjligt att utkräva tydligt ansvar för brott mot sekretess-, finans- eller dataskyddslagar.

Regler för automatisk avstängning av automatiska processer vid anomalier bör utvecklas. T ex har automatiska handelsrobotar stört marknaden vid flera tillfällen.

 

AI som är självutvecklande och fullt automatiserad utan mänsklig inblandning bör begränsas så att den inte kan sprida sig fritt och vi inte därmed förlorar kontrollen över den.

AI är fortfarande i sin tidiga utvecklingsfas och vilka tillämpningar och områden som kan bli problematiska och vilka som har stor potential att hjälpa oss är ännu svårt att avgöra. Då tekniken fortfarande också har karaktär av grundforskning såväl som tillämpad teknik vill vi heller inte i detta skede överreglera. Det är dock hög tid att diskutera och förutsäga rimliga problem som kan uppstå och inleda arbetet med att systematisera vad som kan behöva regleras och vilka utvecklingsvägar som kan innebära fara för att mänskligheten förlorar herraväldet över sin egen teknik.

Förslagen

Sverige bör vara pådrivande inom FN och andra sammanhang för att förbjuda autonoma dödliga vapensystem.

Sverige bör vara föregångare på området för effektiv analys och reglering av AI. Detta skulle kunna ge oss stora konkurrensfördelar genom att vara med att utveckla nya globala standarder på området samt skydda oss från förlust av demokratiska fri- och rättigheter.

 

 

Carl Schlyter (MP)

 

 


[1] https://futureoflife.org/open-letter-autonomous-weapons/.

[2] http://www.medianet.com.au/releases/141447/.

[3] http://su.diva-portal.org/smash/get/diva2:1088890/FULLTEXT01.pdf.