Hensynsløsheten til kunstig intelligens

0
TV-meteorolog Joe Lauria. (Fox 4 News Kansas City/YouTube)

Kunstig intelligens ser bestemt ut til å forandre verden. Men til nå har feilene fått lov til å drepe uskyldige mennesker, skriver den ene av de to Joe Lauriaene.

Joe Lauria.

Av Joe Lauria (Ikke meteorologen)

Spesielt for Consortium News, 10. januar 2025

Det er ingen måte å reversere fremveksten av kunstig intelligens på dens vei til å dominere livene våre. Fra kundeservice til sensur og krig, setter kunstig intelligens (KI) sitt preg, og potensialet for katastrofe er reelt.

Mengden ansikt til ansikt-kontakt, eller til og med menneskelig, muntlig interaksjon på telefonen i forskjellige gjøremål, har gått ned i årevis og blir verre med KI. Men KI gjør langt mer enn bare å erodere samfunnet, ødelegge arbeidsplasser og irritere folk som står på vent i telefonsamtaler.

KI står i økende grad bak beslutninger som sosiale medieselskaper tar om hvilke innlegg som skal fjernes, fordi de bryter med noen vage «fellesskaps»-standarder (samtidig som det ødelegger fellesskapet), når det er åpenbart at KI er programmert til å luke ut politiske budskap fra dissidenter.

KI tar også avgjørelser om hvem som skal suspenderes eller utestenges fra et sosialt medienettsted, og ser også ut til å evaluere «anker» i forhold til suspensjoner, som i mange tilfeller ville blitt omgjort hvis bare et par menneskelige øyne ble brukt.

Facebook-grunnlegger Zuckerberg innrømmet denne uken at «Vi bygde mange komplekse systemer for å moderere innhold, men problemet med komplekse systemer er at de gjør feil». Facebook innrømmer at de brukte KI-systemer for å fjerne brukernes innlegg.

«Selv om de ved et uhell sensurerer bare 1 % av innleggene, er det millioner av mennesker, og vi har nådd et punkt hvor det bare er for mange feil og for mye sensur», sa Zuckerberg.

KI blir brukt i absurd grad, det inkluderer for eksempel en «tenketank» i Washington som blir fullstendig drevet av kunstig intelligens. Drop Site News rapporterer om Beltway Grid Policy Center som ikke har noen kontoradresse.

«Beltway Grids mangel på et fysisk fotavtrykk i Washington – eller noe annet sted på det jordiske planet for eksistens – stammer fra mer enn bare en sjenerøs arbeid-hjemmefra-politikk. Organisasjonen ser ikke ut til å kreve at de ansatte eksisterer i det hele tatt», skriver nettstedet. Likevel kverner den ut store mengder rapporter, pressemeldinger og tips til journalister.

Selv om dette kan være en ekstrem bruk av KI, er den mer vanlige interaksjonen med publikum plaget av et annet problem: hvor feil KI kan ta.

Fortsatt ganske eksperimentell

KI er tydeligvis fortsatt på et eksperimentelt stadium, og selv om betydelige feil er uunngåelige, har de ikke bremset bruken. Feilene spenner fra det hverdagslige til det latterlige til det farlige.

Jeg oppdaget nylig et eksempel på det latterlige.

Alle som søker på Google etter nettprofilen sin, vil garantert finne andre personer med nøyaktige sammen navn. Jeg har lenge vært klar over Joe Lauria, en TV-meteorolog i Fox-filialen i Kansas City, Missouri.

Vi har blitt tatt feil av før. For bare to uker siden mottok jeg en e-post fra en Fox-seer i Kansas City-området, som roste Lauria for å være så velkledd og spurte meg om råd om hvor han kunne kjøpe en dress. Jeg var nysgjerrig på hvem andre som kunne være tatt feil av, så jeg spurte Grok, Elon Musks mye omtalte KI-system, hvem Joe Lauria er.

Dette er svaret jeg fikk:

«Joe Lauria er en mangefasettert fagperson som først og fremst er kjent for sitt arbeid innen journalistikk og meteorologi. Her er en oversikt over karrieren hans basert på tilgjengelig informasjon:

  • Journalistikk: Joe Lauria har vært utenriksjournalist basert i FN siden 1990. Han har bidratt til en rekke publikasjoner, inkludert Boston Globe, London Daily Telegraph, Johannesburg Star, Montreal Gazette, Wall Street Journal, New York Times, Washington Post, Salon.com og The Guardian.
  • Han har også vært undersøkende reporter for The Sunday Times of London og Bloomberg News. Lauria er for tiden sjefredaktør for Consortium News, hvor han skriver om internasjonale anliggender med fokus på Midtøsten. Han har skrevet bøker sammen med bemerkelsesverdige personer som den tidligere amerikanske senatoren Mike Gravel, med fokus på amerikansk utenrikspolitikk og militarisme.
  • Meteorologi: Joe Lauria er en prisbelønt meteorolog. Han har jobbet som meteorolog på kveldsnyhetene for FOX4 i Kansas City siden januar 1995, og kringkastet værmeldinger hver ukekveld kl. 5, 6, 9 og 10. Hans tilnærming til meteorologi inkluderer å utdanne seerne om aspekter ved været som ikke vanligvis finnes på standard værapper.
  • Før sin rolle hos FOX4 fungerte han som sjefsmeteorolog ved KOSA-TV i Midland, Texas, og har jobbet på forskjellige andre steder som Orlando, Florida og Kansas City, Missouri. Han har blitt anerkjent for sitt arbeid ved å motta godkjenningsstempelet fra både American Meteorological Society (AMS) og National Weather Association (NWA). Lauria har også betegnelsen Certified Broadcast Meteorologist (CBM) fra AMS.
  • Personlig liv: Joe Lauria ble født i New Rochelle, New York, og bor for tiden i Olathe, Kansas med sin kone, Jaye Lynn, og deres to katter. Han liker italienske restauranter, golf og har vært involvert i samfunnsnyttig tjeneste gjennom værseminarer og taler.

Joe Laurias doble karriere innen journalistikk og meteorologi fremhever hans mangfoldige interesser og bidrag til offentlig forståelse og sikkerhet, gjennom vær-rapportering og innsiktsfull rapportering om internasjonale anliggender».

Bare for ordens skyld, jeg har ingen katter, jeg spiller ikke golf og jeg ble ikke født i New Rochelle (men ikke så langt unna, i Bronx). Selvfølgelig er det mye humor i dette. (Det er også morsomt at jeg begynte på universitetet, usikker på om jeg skulle bli journalist eller meteorolog. Så så jeg hvor mye matematikk som er involvert i meteorologi).

Potensialet for slikt tull i et system som ser ut til å gradvis ta over verden, er imidlertid ikke alltid til å le av. Det er urovekkende at Groks menneskeskapte intelligens antok at to personer er én, i stedet for bare å innrømme at det er flere personer med samme navn.

På den annen side ga Chat GPT en imponerende og skarp, politisk nøytral avhandling om arbeidet mitt som svar på spørsmålet «Hvem er Joe Lauria?» Det var nesten som om jeg hadde ansatt den for å være min PR-agent. Essayet høres ut som Chat GPT brukte måneder på å lese alt jeg hadde skrevet, da det ble frembragt på sekunder. Det var heller ingen tegn til meteorologen fra Kansas City.

Men da jeg dykket litt dypere inn i «kunnskapen» om meg, fant den opp ting ut av løse luften. Da jeg spurte den om hvilke bøker jeg hadde skrevet, i stedet for å navngi bøkene jeg faktisk skrev, kom den opp med en helt fiktiv tittel på en antatt sakprosabok: The Assange Agenda: The Legacy of the Wikileaks Founder. Den antok til og med en utgiver: Clarity Press.

Det finnes ingen slik bok. Basert på sin kunnskap om min rapportering om Julian Assange, gjorde den en latterlig gjetning om en imaginær bok den trodde jeg måtte ha skrevet. Kort sagt, mye KI er nonsens.

AI og krig

Et bilde som inneholder utendørs, himmel, forurensing, Naturstein

Automatisk generert beskrivelse
Skadene i Gaza. (Naaman Omar\Palestinian News & Information Agency, Wafa, for APAimages, Wikimedia Commons, CC BY-SA 3.0)

Så latterlige som disse resultatene er, så frustrerende som menneskeløse interaksjoner blir i kundeservice, der man anker innlegg på sosiale medier, fjernet av KI, og så mange jobber som går tapt til KI, jo mer opprivende er bekymringen for bruken av kunstig intelligens i krigføring.

Med andre ord, hva skjer når KI-feil beveger seg fra det ufarlige og komiske til spørsmål om liv og død?

Time Magazine rapporterte i desember om Israels bruk av KI for å drepe sivile i folkemordet i Gaza:

«Et program kjent som ‘Evangeliet’ genererer forslag til bygninger og strukturer militante kan operere i. ‘ Lavender’ er programmert til å identifisere mistenkte medlemmer av Hamas og andre væpnede grupper for attentat, fra kommandanter helt ned til fotsoldater. «Hvor er pappa?» følger angivelig bevegelsene deres ved å spore telefonene deres for å målrette dem – ofte til hjemmene deres, hvor deres tilstedeværelse blir sett på som en bekreftelse på identiteten deres. Luftangrepet som følger kan drepe alle i målets familie, om ikke alle i bygården.

Disse programmene, som Israel Defense Force (IDF) har erkjent å ha utviklet, kan bidra til å forklare tempoet i den mest ødeleggende bombekampanjen i det 21. århundre.

Det israelske magasinet +972 og The Guardian brakte historien i april, og rapporterte at opptil 37 000 mål hadde blitt valgt av KI (det er antagelig nå mye høyere enn i april), noe som effektiviserte en prosess som før ville involvere menneskelig analyse og en juridisk autorisasjon før en bombe kunne slippes.

IDF gjorde seg avhengig av Lavendel under intenst press for å slippe flere og flere bomber over Gaza. The Guardian rapporterte:

«Vi ble hele tiden presset: ‘Gi oss flere mål.’ De ropte virkelig til oss,’ sa en [israelsk] etterretningsoffiser. «Vi ble fortalt: nå må vi fucke opp Hamas, uansett hva det koster. Alt du kan, bomber du.’

For å imøtekomme dette kravet kom IDF til å stole sterkt på Lavender for å generere en database over individer som ble vurdert til å ha egenskapene til en PIJ [Palestinsk Islamsk Jihad] eller Hamas-militant. […]

Etter tilfeldig prøvetaking og kryssjekking av beregningene, konkluderte enheten med at Lavender hadde oppnådd en nøyaktighetsgrad på 90 %, sa kildene, noe som førte til at IDF godkjente den omfattende bruken som et verktøy for anbefaling av mål.

Lavender opprettet en database med titusenvis av individer som ble markert som overveiende lavtstående medlemmer av Hamas militære fløy».

Nitti prosent er ikke en uavhengig evaluering av nøyaktigheten, men IDFs egen vurdering. Selv om vi bruker den, betyr det at for hver 100 mennesker Israel retter seg mot ved hjelp av dette systemet, er minst 10 helt uskyldige, etter eget utsagn.

Men vi snakker ikke om 100 individer som er målrettet, men «titusener». Gjør regnestykket. For hver 10.000 målrettede er 1.000 uskyldige ofre, akseptert av IDF til å bli drept.

I april i fjor innrømmet Israel i hovedsak at 3.700 uskyldige Gaza-innbyggere hadde blitt drept på grunn av KI. Det var åtte måneder siden. Hvor mange flere har blitt slaktet?

Den nasjonale avisen fra Abu Dhabi rapporterte:

«Teknologieksperter har advart Israels militære om potensiell ‘ekstrem skjevhetsfeil’ ved å stole på Big Data for å målrette mot mennesker i Gaza, mens de bruker kunstig intelligens-programmer. […]

Israels bruk av kraftige KI-systemer har ført til at militæret har gått inn på territorium for avansert krigføring, som ikke tidligere er sett i en slik skala mellom soldater og maskiner.

Ubekreftede rapporter sier at KI-systemene hadde «ekstrem skjevhetsfeil, både i målrettingsdataene som brukes, men også i den kinetiske handlingen», sa Hammond-Errey som svar på et spørsmål fra The National. Ekstrem skjevhetsfeil kan oppstå når en enhet er kalibrert feil, slik at den feilberegner målinger.

KI-eksperten og direktøren for ny teknologi ved University of Sydney, antydet at brede datasett «som er svært personlige og kommersielle» betyr at væpnede styrker «faktisk ikke har kapasitet til å verifisere» mål, og at det potensielt var «en medvirkende årsak til så store feil».

Hun sa at det ville ta ‘lang tid for oss å virkelig få tilgang til denne informasjonen’, om noen gang, ‘for å vurdere noen av de tekniske realitetene i situasjonen’, ettersom kampene i Gaza fortsetter».

(kinetisk, her = fysisk, red.)

IDFs KI må sikkert være mer sofistikert enn kommersielt tilgjengelige versjoner av KI for allmennheten, som Grok eller ChatGPT. Og likevel innrømmer IDF at det er minst 10 prosent feilrate når det gjelder å bestemme hvem som skal leve og hvem som skal dø.

For hva det er verdt, sier ChatGPT, en av de mest populære KI-versjonene, at farene ved feil i lavendelsystemet er:

  • «Skjevhet i data: Hvis Lavendel er trent på data som uforholdsmessig kommer fra visse kilder, kan det føre til partiske resultater, for eksempel feilidentifisering av oppførselen til spesifikke grupper eller feilvurdering av visse typer signaler.
  • Ufullstendige eller skjeve datasett: Hvis dataene som brukes til opplæring er ufullstendige eller ikke dekker et bredt spekter av potensielle trusler, kan KI gå glipp av kritiske signaler eller feiltolke ufarlige aktiviteter som trusler.» (Uthevelse tilføyd.)»

KI og atomvåpen

Et bilde som inneholder sort og hvit, konstruksjon, himmel, utendørs

Automatisk generert beskrivelse
Et lovforslag fra det amerikanske senatet vil forby KI fra involvering i atomvåpen. (U.S. Army National Guard, Ashley Goodwin, Public domain)

Bekymringen for at feil begått av kunstig intelligens kan føre til en atomkatastrofe, gjenspeiles i det amerikanske senatets lovforslag S. 1394, med tittelen Block Nuclear Launch by Autonomous Artificial Intelligence Act of 2023. Lovforslaget

«Forbyr bruk av føderale midler til et autonomt våpensystem som ikke er underlagt meningsfull menneskelig kontroll for å avfyre et atomvåpen eller for å velge eller engasjere mål med det formål å avfyre et atomvåpen.

Med hensyn til et autonomt våpensystem betyr meningsfull menneskelig kontroll menneskelig kontroll av (1) valg og engasjement av mål: og (2) tid, sted og bruksmåte».

Lovforslaget kom ikke ut av Senatets komité for de væpnede styrker. Men overlot det til NATO å latterliggjøre det. En rapport publisert i NATO Rewiev i april i fjor klaget over at:

«Vi ser ut til å være på rask vei til å utvikle et diplomatisk og regulatorisk rammeverk som begrenser KI i atomvåpensystemer. Dette er bekymringsfullt av minst to grunner:

  1. Det er et verktøy i KI som vil styrke kjernefysisk avskrekking uten nødvendigvis å utvide atomarsenalet.
  2. Hastverket med å forby KI fra kjernefysisk forsvar ser ut til å være forankret i en misforståelse av den nåværende tilstanden til KI – en misforståelse som ser ut til å være mer informert av populærfiksjon enn av populærvitenskap.» […]

Den typen kunstig intelligens som er tilgjengelig i dag, er ikke AGI. Den kan bestå Turing-testen – det vil si at den kan være umulig å skille fra et menneske når den svarer på spørsmål stilt av en bruker – men den er ikke i stand til selvstendig tenkning, og er absolutt ikke selvbevisst».

I hovedsak sier NATO at siden KI ikke er i stand til å tenke selv [AGI], er det ingenting å bekymre seg for. Men svært intelligente mennesker som er i stand til å tenke selv, gjør feil, enn si en maskin som er avhengig av menneskelig input.

Rapporten hevder at KI uunngåelig vil forbedre nøyaktigheten av kjernefysisk målretting. Ingen steder i dokumentet finnes ordene «error» eller «mistake» (feil) i entall eller flertall.
Grok kombinerte to Joe Lauriaer til én. Det er 47 befolkningssentre i USA med navnet Moskva. Bare for å ha sagt det. (Jeg vet, koordinatene er alle forskjellige.)

Men NATO-artikkelen ønsker ikke diplomatisk diskusjon, og klager over at «Saken ble til og med reist i diskusjoner mellom USA og Kina på Asia-Pacific Economic Cooperation Forum, som møttes i San Francisco i november (2023)».

Avisen konkluderte: «Med mulige geopolitiske fordeler som skal realiseres, er det en dårlig idé å forby KI fra kjernefysisk forsvar».

I en normal verden ville vi gå tilbake til rent menneskelige interaksjoner i våre daglige liv, og hvis krig ikke kan forhindres, i det minste returnere den til mer møysommelige, menneskelige beslutninger om hvem vi skal angripe mot.

Siden ingenting av dette kommer til å skje, bør vi håpe KI forbedres betraktelig, slik at komedie ikke blir til tragedie, eller enda verre, total katastrofe.


Denne artikkelen er hentet fra Consortium News:

The Recklessness of AI

Oversatt for steigan.no av Espen B. Øyulvstad

Joe Lauria er sjefredaktør for Consortium News og tidligere FN-korrespondent for Wall Street Journal, Boston Globe og andre aviser, inkludert The Montreal Gazette, London Daily Mail og The Star of Johannesburg. Han var undersøkende reporter for Sunday Times i London, finansreporter for Bloomberg News og begynte sitt profesjonelle arbeid som 19 år gammel freelancer for The New York Times. Han er forfatter av to bøker, A Political Odyssey, med senator Mike Gravel, forord av Daniel Ellsberg; og How I Lost av Hillary Clinton, forord av Julian Assange.

Forrige artikkel«Gudfaren til KI» krever strenge regler for å stoppe teknologien fra å utslette menneskeheten
Neste artikkelMassive israelske ødeleggelser fortsetter i Sør-Libanon når våpenhvilen går inn i siste uke
Joe Lauria
Joe Lauria er sjefredaktør for Consortium News og tidligere FN-korrespondent for Wall Street Journal, Boston Globe og en rekke andre aviser, inkludert The Montreal Gazette og The Star of Johannesburg. Han var en undersøkende reporter for Sunday Times of London, en finansiell reporter for Bloomberg News og begynte sitt profesjonelle arbeid som en 19 år gammel stringer for The New York Times.