‘Lavender’: KI-maskinen som styrer Israels bombeangrep i Gaza

0

Den israelske hæren har markert titusenvis av Gaza-innbyggere som mistenkte ved å bruke et KI-målrettingssystem med lite menneskelig tilsyn og en romslig aksept for store tap, skriver den israelske journalisten Yuval Abraham for +972 og Local Call.

Abraham skriver:

I 2021 ble en bok med tittelen «The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World» utgitt på engelsk under pseudonymet «Brigadier General YS» I den skrev forfatteren – en mann som vi bekreftet å være den nåværende sjefen for den israelske eliteetterretningsenheten 8200 – argumenterer for å designe en spesiell maskin som raskt kan behandle enorme mengder data for å generere tusenvis av potensielle «mål» for militære angrep i kampens hete i en krig. Slik teknologi, skriver han, ville løse det han beskrev som en «menneskelig flaskehals for både å lokalisere de nye målene og beslutningstaking for å godkjenne målene».

En slik maskin eksisterer faktisk, viser det seg. En ny undersøkelse av +972 Magazine og Local Call avslører at den israelske hæren har utviklet et kunstig intelligens-basert program kjent som «Lavender», avslørt her for første gang. Ifølge seks israelske etterretningsoffiserer, som alle har tjenestegjort i hæren under den nåværende krigen på Gazastripen og hadde førstehånds involvering med bruk av KI for å generere mål for attentat, har Lavender spilt en sentral rolle i den bombingen uten sidestykke som Israel har utført mot palestinere, spesielt i de tidlige stadiene av krigen. Faktisk, ifølge kildene, var dens innflytelse på militærets operasjoner slik at de i hovedsak behandlet utdataene fra KI-maskinen «som om det var en menneskelig beslutning».

Formelt er Lavendersystemet utformet for å markere alle mistenkte operatører i de militære fløyene til Hamas og Palestinian Islamic Jihad (PIJ), inkludert lavt rangerte, som potensielle bombemål. Kildene fortalte +972 og Local Call at i løpet av de første ukene av krigen stolte hæren nesten fullstendig på Lavender, som markerte så mange som 37.000 palestinere som mistenkte militante – og deres hjem – for mulige luftangrep.

I løpet av de tidlige stadiene av krigen ga hæren omfattende godkjenning for offiserer til å ta i bruk Lavenders drapslister, uten noe krav om å sjekke grundig hvorfor maskinen tok disse valgene eller å undersøke de rå etterretningsdataene de var basert på. En kilde uttalte at menneskelig personell ofte bare tjente som et «gummistempel» for maskinens avgjørelser, og la til at de vanligvis personlig bare ville bruke omtrent «20 sekunder» til hvert mål før de autoriserte en bombing – bare for å sikre at Lavender-merket mål er en mann. Dette til tross for å vite at systemet gjør det som anses som «feil» i omtrent 10 prosent av tilfellene, og er kjent for å av og til markere individer som bare har en løs tilknytning til militante grupper, eller ingen tilknytning i det hele tatt.

Dessuten angrep den israelske hæren systematisk de målrettede personene mens de var i hjemmene sine – vanligvis om natta mens hele familiene deres var til stede – i stedet for under militær aktivitet. Ifølge kildene skyldtes dette, fra det de så på som et etterretningssynspunkt, det var lettere å lokalisere individene i deres private hus. Ytterligere automatiserte systemer, inkludert et som heter “Where’s Daddy?” også avslørt her for første gang, ble brukt spesifikt til å spore målrettede individer og utføre bombeangrep når de hadde gått inn i familiens boliger.

Resultatet, som kildene vitnet om, er at tusenvis av palestinere – de fleste av dem kvinner og barn eller personer som ikke var involvert i kampene – ble utslettet av israelske luftangrep, spesielt i løpet av de første ukene av krigen, på grunn av KI-programmets beslutninger.

«Vi var ikke interessert i å drepe [Hamas]-operativer bare når de var i en militærbygning eller var engasjert i en militær aktivitet», fortalte A., en etterretningsoffiser, til +972 og Local Call. «Tvert imot, IDF bombet dem i hjemmene deres uten å nøle, som et første alternativ. Det er mye lettere å bombe en families hjem. Systemet er bygget for å se etter dem i disse situasjonene».

Lavendermaskinen slutter seg til et annet KI-system, «The Gospel», som det ble avslørt informasjon om i en tidligere undersøkelse av +972 og Local Call i november 2023, så vel som i det israelske militærets egne publikasjoner. En grunnleggende forskjell mellom de to systemene er i definisjonen av målet: mens «The Gospel» markerer bygninger og strukturer som hæren hevder militante opererer fra, merker Lavender mennesker – og setter dem på en drapsliste. 

Omfattende og enestående dokumentasjon av Israels automatiske drapsmaskin

Yuval Abraham og hans team i +972 og Local Call har gjort et meget omfattende arbeid for å dokumentere Israels hensynsløse KI-baserte drapsmaskineri. Vi har bare sitert den første delen av artikkelen. Resten kan leses her:

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

Forrige artikkelHvem er Bassirou Diomaye Faye, Senegals nye president?
Neste artikkelIsrael bombet utenlandske hjelpearbeidere tre ganger, til de alle ble drept
Skribent er en betegnelse vi bruker i databasen på alle som ikke er registrert der som forfattere. I de aller fleste tilfelle vil du finne forfatterens navn i artikkelen.