Roboten, en mänskligare soldat

Waldemar Ingdahl
Jul 29, 2016 · 3 min read

Det sägs i debatten att autonoma vapensystem ska förbjudas. Det forskas på olika militära forskningsinstitut om robotar som kan användas i strid och i andra operationer. Forskningen har visat några resultat (som roboten Big Dog), men det är fortfarande en bit kvar tills modeller kan tas i bruk i fält. De drönare som används på slagfälten är fjärrstyrda av mänskliga piloter.

Ett förbud innebär troligen ett mycket svårare hanteringsproblem än att förbjuda kärnvapen, biologiska vapen och kemiska vapen. Utvecklingen av autonoma vapensystem (givet att vidareutvecklingen av AI är möjlig) kan med tiden bli billigare och säkrare än de andra massförstörelsevapen. Det behövs inga svåråtkomliga material som t.ex. uran. Hårdvaran och mjukvaran är förhållandevis lätta att utveckla med en ingenjörs- och programmeringskompetens som många länder kan uppbåda. Utveckling av autonoma vapensystem behöver inga hemliga laboratorier eller omfattande provverksamhet, som andra massförstörelsevapen. Det kan vara svårt att identifiera vem som utfört ett angrepp med autonoma vapensystem, vilket ger en spelteoretisk fördel till anfallaren. Fienden vet inte alltid vem de ska slå tillbaka mot.

Situationen är jämförbar med ett fångarnas dilemma, där Nashjämvikten verkar luta mot att alla aktörer utvecklar autonoma vapensystem. Det skulle göra övervakningen och upprätthållandet av ett globalt förbud till ett kostsamt och svårhanterligt koordinationsproblem. Tidigare initiativ av globala förbud av vare sig landminor eller kärnvapen har, trots utdelade nobelpris, inte varit effektiva.

Autonoma vapensystem är inte heller så lätta att isolera inom ramen av ett förbud. Debatten förs idag kring spekulationer om möjliga utvecklingar av tekniken. Ett förbud skulle bli tvunget att försöka förbjuda utvecklingar inom breda områden som artificiell intelligens, mekatronik, sensorteknik etc. Det är förbud som skulle sätta stopp för fredliga användningar av artificiell intelligens på andra viktiga områden.

Det behövs en klok riskhantering och innovationspolitik. Vad skulle utgöra ett effektivt och realistiskt alternativ till förbudstanken, och samtidigt minska skadorna från autonoma vapensystem?

Det kan mycket väl vara så att autonoma vapensystem bättre kan skydda de mänskliga rättigheterna under strid, än soldater med konventionella vapen gör. Den relevanta diskussionen är om användningen sker enligt den omfattande internationella juridik som omger krig. Alla som struntar i Genèvekonventionen och andra avtal kan vi redan räkna bort, för de kommer inte bry sig i vilket fall som helst.

För att idag vara lagligt, måste ett vapen kunna skilja mellan stridande och icke-stridande samt inte orsaka onödigt lidande. Det var skälet till att personminor samt kemiska och biologiska stridsmedel har förbjudits, avtalats bort eller minskat i användning. Om autonoma vapensystem kan skilja mellan soldater och civila och strida så att de inte orsakar onödigt lidande så är de inte olagliga i sig.

Autonoma vapensystem skulle inte göra fel grundade på känslor, rädsla, trötthet, ilska. Det är faktorer som drabbar även de mest vältränade officerare och soldater när de är i fält. De autonoma vapensystemen kan ta in och utvärdera mycket mer information i realtid än mänskliga soldater. De har, så att säga, Genèvekonventionen uppslagen hela tiden. Dessutom skulle de kunna spela in data av sina egna och andra stridandes handlingar på slagfältet i ett dataminne som bara lämnas öppet för en skiljedomstol.

Om ett lands armé släppt ut stridsrobotar och drönare med dålig programmering på slagfältet så ligger ansvaret fullt tydligt på arméledningen. Politisk och militär ledning kan idag ofta begränsa sitt ansvar, genom att istället lägga det på sina underlydande. Automatiska vapensystem skulle kunna sätta en än större press på generalstaberna att faktiskt förstå sina vapensystem, sina doktriner och vad de praktiskt leder till i fält. Det är redan en viktig uppgift för en modern armé, och det är bra lägga än större vikt på den.

För det är ju dagens situation är det stora problemet, med lidande för både stridande och icke-stridande parter, och det är där man bör lägga ned handfast arbete. Deklarationer om vad som skulle kunna vara framtida vapensystem kanske inte trampar någon på tårna idag, men de ger ingen vägledning om vad som ska göras och vilka värderingar och lagstiftningar som är lämpliga när dessa vapensystem väl kommer fram. Om vi alltid förbereder oss på det värsta, kan vi bli handlingsförlamade när det värsta inte händer.

Waldemar Ingdahl

Written by

Journalist, communicator, analyst for politics, tech policy, global governance, AI, IT, and transhumanism.