Hjem Internasjonalt

Se for deg en dystopisk verden der drapsroboter regjerer

0
KI-generert illustrasjon

«For å unngå en fremtid med automatiserte drap, bør regjeringer gripe enhver anledning til å jobbe for målet om å vedta en global traktat om autonome våpensystemer», ifølge forfatteren av rapport fra Human Rights Watch.

Av Eloise Goldsmith.

Common Dreams,  28. april 2025.

I en rapport publisert på mandag, oppfordrer en ledende menneskerettighetsgruppe til internasjonal politisk handling, for å forby og regulere såkalte «drapsroboter» – autonome våpensystemer som velger mål basert på informasjon fra sensorer i stedet for fra mennesker – og undersøker dem i sammenheng med seks kjerneprinsipper i internasjonal lov om menneskerettigheter.

I noen tilfeller, hevder rapporten, kan et autonomt våpensystem ganske enkelt være uforenlig med et gitt menneskerettighets-prinsipp eller forpliktelse.

Rapporten, publisert i fellesskap av Human Rights Watch og Harvard Law School’s International Human Rights Clinic, kommer like før FNs første møte i generalforsamlingen om autonome våpensystemer, neste måned. Tilbake i 2017 publiserte dusinvis av eksperter på kunstig intelligens og robotikk, et brev som oppfordret FN til å forby utvikling og bruk av drapsroboter. Etter hvert som dronekrigføringen har vokst, har disse samtalene fortsatt.

«For å unngå en fremtid med automatisert drap, bør regjeringer gripe enhver anledning til å jobbe for målet om å vedta en global traktat om autonome våpensystemer», sa forfatteren bak rapporten, Bonnie Docherty, senior våpenrådgiver ved Human Rights Watch og foreleser i juss ved Harvard Law School’s International Human Rights Clinic, i en uttalelse mandag.

Ifølge rapporten, som inkluderer anbefalinger om en mulig internasjonal traktat, støttes oppfordringen til forhandlinger om å vedta «et juridisk bindende instrument for å forby og regulere autonome våpensystemer», av minst 129 land.

Droner som er avhengige av et autonomt målrettingssystem, har blitt brukt av Ukraina for å treffe russiske mål under krigen mellom de to landene, rapporterte The New York Times i fjor.

I 2023 kunngjorde Pentagon et program, kjent som Replicator-initiativet, som innebærer et press for å bygge tusenvis av autonome droner. Programmet er en del av det amerikanske forsvarsdepartementets plan for å motvirke Kina. I november påsto vaktbikkjegruppa Public Citizen, at tjenestemenn i Pentagon ikke har vært ærlige om at dronene i Replicator-prosjektet ville bli brukt til å drepe.

En senior marineadmiral sa nylig til Bloomberg at programmet er «i beste velgående» under forsvarsdepartementets nye ledelse, etter gjenkomsten til USAs president Donald Trump i Det hvite hus.

Docherty advarte om at virkningen av drapsroboter vil strekke seg utover den tradisjonelle slagmarken. «Bruken av autonome våpensystemer vil ikke være begrenset til krig, men vil strekke seg til operasjoner for rettshåndhevelse, grensekontroll og andre omstendigheter, noe som reiser alvorlige bekymringer i henhold til internasjonal menneskerettighetslov», sa hun i uttalelsen.

Når det gjelder retten til fredelig forsamling i henhold til menneskerettighetsloven, som er viktig i sammenheng med rettshåndhevelse som utøver makt, vil «autonome våpensystemer være uforenlige med denne rettigheten», ifølge rapporten.

Drapsroboter utgjør en trussel mot fredelige forsamlinger, fordi de «ville mangle menneskelig dømmekraft og ikke kunne forhåndsprogrammeres eller trenes til å håndtere enhver situasjon», noe som betyr at de «ville finne det utfordrende å trekke grensen mellom fredelige og voldelige demonstranter».

Også «bruken eller trusselen om bruk av autonome våpensystemer, spesielt i hendene på voldelige regjeringer, kan skape frykt blant demonstranter og dermed forårsake en nedkjølende effekt på ytringsfriheten og fredelige forsamlinger», ifølge rapporten.

Drapsroboter vil også være i strid med prinsippet om menneskeverd, ifølge rapporten, som fastslår at alle mennesker har iboende verdi som er «universell og ukrenkelig».

«Verdighetskritikken er ikke fokusert på at systemene genererer feil resultater», heter det i rapporten. «Selv om autonome våpensystemer muligens ikke kan gjøre noen feil i resultatene – noe som er ekstremt usannsynlig – gjenstår bekymringene for menneskeverd, noe som nødvendiggjør forbud og reguleringer av slike systemer».

«Autonome våpensystemer kan ikke programmeres til å gi verdi til menneskeliv, har ikke følelser som medfølelse, som kan generere tilbakeholdenhet mot vold, og vil være avhengige av prosesser som dehumaniserer individer ved å ta beslutninger om liv og død, basert på programvare og datapunkter», la Docherty til.

Totalt tar rapporten for seg:

  • Retten til liv
  • Retten til fredelig forsamling
  • Prinsippet om menneskelig verdighet
  • Prinsippet om ikke-diskriminering
  • Retten til privatliv
  • Og retten til å avhjelpe.

Rapporten lister også opp tilfeller der det er mer tvetydig om autonome våpensystemer vil krenke en viss rettighet.

Retten til privatliv, for eksempel, beskytter enkeltpersoner mot «vilkårlige eller ulovlige» inngrep i deres personlige liv. Rapporten sier, «utvikling og bruk av autonome våpensystemer kan krenke retten fordi, hvis de eller noen av deres komponentsystemer er basert på KI-teknologi, vil deres utvikling, testing, trening og bruk sannsynligvis kreve masseovervåking».

Denne artikkelen er fra Common Dreams:

Not Just for the Battlefield: Rights Group Warns of Dystopian World Where Killer Robots Reign

Oversatt for steigan.no av Espen B. Øyulvstad

Forrige artikkelRepublikanere vil øke militærbudsjettet for 2025 til over 1 billion dollar
Neste artikkelGaza, USA og Kina: krigens framtid og sivilisasjonens slutt
skribent
Skribent er en betegnelse vi bruker i databasen på alle som ikke er registrert der som forfattere. I de aller fleste tilfelle vil du finne forfatterens navn i artikkelen.