I nyhetsflödet från olika konflikter kommer regelbundet rapporter om nya tekniska system. Obemannade farkoster som drönare och vapen med autonoma funktioner eller artificiell intelligens (AI) får särskilt stor uppmärksamhet. Det väcker frågor om hur AI och autonomi i militära system och vapen formar dagens väpnade konflikter och hur de kan påverka framtida konflikter, människans roll i krigföring och respekten för den internationella humanitära rätten (krigets lagar). Det har också aktualiserat en diskussion om utmaningarna med autonomi i vapensystem som lett till multinationella diskussioner om behovet av ny folkrätt.
Utvecklingen av militär teknik har alltid påverkat väpnade konflikter och krigföringens karaktär, samt utmanat – och format – den internationella humanitära rätten. Obemannade farkoster har använts länge och vapen med automatiska eller autonoma funktioner har funnits i över 100 år. De första systemen hade mekaniska styrsystem, en mycket enkel automatik och saknade helt avancerad ”intelligens”. De första torpederna utvecklades i slutet av 1800-talet och de första kryssningsrobotarna flög under första världskriget. Robotvapen utvecklades under andra världskriget och sedan 1970-talet har obemannade flygplan använts militärt. Under krigen i Afghanistan och Irak bar de i ökande utsträckning på robotvapen och kom därmed att förknippas med både automation och vapen. Sedan dess har obemannade flygande farkoster (drönare) varit en viktig del av militära operationer, inte minst i det så kallade globala kriget mot terrorismen. Efter Rysslands storskaliga invasion av Ukraina har de blivit ett vanligare inslag på stridsfältet och där används de idag överallt längs frontlinjen. Även om drönarna väsentligen är fjärrstyrda går utvecklingen mot mer autonomi.
När avståndet mellan det mänskliga beslutet och vapeneffekten ökar i tid och rum och allt fler funktioner sköts av automatik blir kopplingen mindre tydlig.
I Ukraina använder båda sidor mindre drönare i en omfattning som inte har setts tidigare. Hela frontlinjen är ständigt övervakad och de soldater eller fordon som rör sig upptäcks lätt och utsätts för bekämpning. Stridsfältet har blivit transparent. Förutom att användas för spaning och eldledning används drönarna även i informationskrigföringen. Båda sidor filmar framgångsrika anfall och visar på framgångar på slagfältet. Informationsflödet från kriget är större än under tidigare konflikter, men också svårare att överblicka och värdera. Små drönare används också för bekämpning. Antingen bär de vapen, ofta en granat som släpps att falla fritt mot ett mål på marken, eller så styrs de in mot målet som en traditionell robot och kallas ibland ”självmordsdrönare”. Det finns flera företag som utvecklar så kallade patrullrobotar, med förmågan att under en tid flyga över ett område och spana efter mål, och när ett sådant upptäcks inleda bekämpning. I dagens system fattas beslutet om bekämpning av en operatör.
Det vi ser idag är, trots diskussionen och de många nyhetsinslagen, ganska enkla system utan någon avancerad automation. Satellitnavigeringssystem är en nyckelfunktion för att systemen ska kunna vara oberoende av människor men de systemen kan störas och navigeringen måste då skötas manuellt och drönarna fjärrstyras. Även styrsignaler blir störda och i kriget i Ukraina har båda sidor börjat använda en fiberoptisk kabel mellan drönaren och piloten, med räckvidder upp till 20 kilometer. Båda sidor i kriget arbetar för att öka automationen så att systemen ska kunna genomföra slutfasen i ett anfall utan mänsklig styrning. För att göra systemen mer autonoma behöver ett antal funktioner automatiseras. Det kan inkludera att systemen utan inverkan av en operatör ska kunna färdas till ett målområde, upptäcka mål, identifiera mål, välja ut mål och bekämpa mål. Själva flygningen kan idag göras helt autonom, men för att automatisera centrala stridsfunktioner på ett effektivt sätt behöver moderna AI-tekniker användas. För okomplicerade fall är det ganska enkelt att utveckla en algoritm som identifierar exempelvis stridsvagnar på ett fält, men för att kunna skilja stridsvagnar från andra fordon i mer komplicerade miljöer krävs omfattande analyser och bakgrundsdata. Sådan teknik utvecklas men finns inte i färdiga produkter.

Den ökande automationen i vapen väcker diskussioner om en anpassning av folkrätten.
Foto: Tyler Hicks/The New York Times
I takt med att utvecklingen av AI och automation av mer komplexa funktioner har ökat, har även förväntningarna på nya militära förmågor ökat. Flera länder, med USA i spetsen, har forskning och utvecklingsprogram för autonoma system, obemannade farkoster som inte behöver fjärrstyras. Utvecklingen har gett upphov till uttrycket autonoma vapensystem, ibland dödliga autonoma vapensystem eller Lethal Autonomous Weapon Systems (LAWS). Det finns ännu inte någon vedertagen definition om vad som utgör ett autonomt vapensystem, men det kan beskrivas som vapen som kan identifiera och/eller välja ut och bekämpa mål utan mänsklig inverkan. System som inte har sådana autonoma stridsfunktioner faller därmed utanför detta begrepp.
En mina är ett vapen med automatiska eller autonoma funktioner, men det som driver diskussionerna är förväntningar på framtida avancerade tekniska lösningar bortom dagens målsökande robotar vilka inte vållat någon stor debatt. Även om en robot, efter att den har avfyrats, autonomt söker efter mål och bekämpar det, finns det en nära koppling mellan det mänskliga beslutet att avfyra mot ett mål och verkanseffekten. När avståndet mellan det mänskliga beslutet och vapeneffekten ökar i tid och rum och allt fler funktioner sköts av automatik blir kopplingen mindre tydlig. Ordet ”beslut” används både för det mänskliga beslutet att aktivera vapnet och resultatet av de beräkningar som görs av datorer i vapensystemet. Att samma ord används för två olika processer, dels ett algoritmiskt resultat, dels om ett beslut som fattas av en människa, orsakar ibland en begreppsförvirring. De två processerna betraktas olika ur såväl etiska som juridiska perspektiv.
När det blir svårare att se kopplingen mellan mänskligt beslut och verkanseffekt väcks oro hos många människor. Rädslan för ondskefulla robotar finns väl beskriven i litteraturen och på film, från medeltida berättelser om konstgjorda varelser till Terminatorfilmerna. Men det är två frågor som återkommer i diskussionen. En fråga rör etik och vilken etisk princip som bör styra i automatisering av vapenverkan; är exempelvis ett algoritmiskt målval ett oetiskt beslut? Den andra handlar om huruvida autonoma vapensystem kan användas i enlighet med folkrätten.
Detta talar för att diskussioner i flera forum kan berika, bredda och fördjupa diskussionen, men att det konsensus-baserade CCW är mest lämpat för att utveckla ny folkrätt.
Folkrätten, och särskilt den internationella humanitära rätten, reglerar utveckling och användning av existerande och framtida autonoma vapensystem i väpnad konflikt. Autonoma vapensystem måste alltså användas i linje med samtliga relevanta folkrättsliga förbud, begränsningar och krav på åtgärder. För att uppfylla dessa krävs ofta bedömningar av mänsklig natur som tar hänsyn till många faktorer och som beror på det operationella sammanhanget. Införandet av autonomi påverkar människans roll och ger därför upphov till nya juridiska frågor om hur dessa regler och principer ska tillämpas i relation till autonoma vapensystem.
Förutom de regler och principer som gäller alla vapen, finns för vissa vapen dessutom särskild reglering och särskilda förbud, exempelvis för brandvapen respektive kemiska vapen. Någon motsvarande särskild reglering eller förbud finns dock inte för autonoma vapensystem. I kombination med de etiska frågor som autonomi väcker har detta gett upphov till en diskussion om ytterligare reglering behövs. En del har hävdat att autonoma vapensystem borde förbjudas eller regleras särskilt. Detta har nu diskuterats i multinationella forum i över ett decennium. Först de senaste åren har diskussionerna fördjupats och gått in i en ny fas. Diskussioner pågår i flera forum men det huvudsakliga forumet är FN:s konvention om konventionella vapen (CCW). I CCW behandlas just nu konkreta förslag som är relativt näraliggande existerande internationell humanitär rätt, snarare än de tidigare och mer omfattande förslagen om förbud. Exempelvis diskuteras förslag om framhävande av människans roll och ansvar, krav på kontroll, krav på att autonoma vapensystem ska vara tillförlitliga och förståeliga för användaren, krav på testning och möjlighet till geografiska och temporala begränsningar samt begränsningar av typ av mål. Dock har frågan om detta ska utmynna i något folkrättsligt bindande instrument eller ej skjutits på framtiden. Även militär AI i en bredare bemärkelse behandlas i multinationella forum, men dessa diskussioner har inte kommit lika långt.
Det finns indikationer på att de utmaningar som autonoma vapensystem innebär kan utgöra ett undantag från det annars mycket begränsade intresset för att utveckla ny internationell humanitär rätt, i alla fall i skrivande stund. Även om det finns skiljelinjer mellan olika grupper av länder så är det talande att alla militära stormakter deltar aktivt i dessa diskussioner. Syftet bör vara att skapa ett instrument som balanserar humanitär hänsyn med militär nytta, som kan bli universellt accepterat och hållbart över tid. Detta talar för att diskussioner i flera forum kan berika, bredda och fördjupa diskussionen, men att det konsensusbaserade CCW är mest lämpat för att utveckla ny folkrätt. Det förutsätter också att den politiska viljan fortsatt finns. AI och autonomi formar redan idag väpnade konflikter och krigföring. Det finns också all anledning att tro att detta kommer få än större betydelse i framtiden, inte bara i vapen utan i alla led i den militära organisationen och verksamheten. Utvecklingen kommer med stora möjligheter, men också med stora utmaningar och risker och den kan förändra människans roll i krigföringen. Möjligheterna bör tillvaratas med beaktande av tillämpliga folkrättsliga regler och principer i den tekniska, organisatoriska och operationella utvecklingen.

Martin Hagström
Programansvarig för forskning inom autonoma och obemannade system vid Totalförsvarets forskningsinstitut, FOI.

Anna Andersson
Förste forskare vid Totalförsvarets forskningsinstitut, FOI, i totalförsvarsjuridik och forskar bland annat om folkrättsliga krav på autonoma system.