
Bruken av KI har eksplodert. Snart kan man ikke tro på noe som helst som er publisert etter 2025.
Det er fire grunner til å ta avstand fra bruk av AI. Den ene er Petter Smart-argumentet fra sent 50-tallet, den andre er Chesterton-argumentet fra 1903 og 1910, det tredje er mitt eget finanstro-argument fra midt på 80-tallet, og det fjerde er oppvaskvann- og den pompøse predikant-argumentet fra i år.

(Disclaimer: Denne artikkelen er skrevet uten bruk av KI på noe som helst måte.)
80-tallsforskerens oppdagelse
Som ung forsker, for over 40 år siden, ble jeg bedt om å finne ut hva som lå i denne nye bølgen rundt kunstig intelligens, og hvordan den kunne være nyttig for forskningsinstituttet. Arbeidet ga meg et helt nytt perspektiv på både forskning og finansmarked. Det var på den tiden en voldsom interesse for kunstig intelligens, og for systemene som skulle lages med KI-prinsipper, såkalte ekspertsystemer. Det ble spådd et marked i milliardklassen, og selvsagt ønsket sjefene mine, som fulgte mye mer med i glansede engelskspråklige teknologimagasiner enn meg, å finne ut hvordan vi på Sintef kunne utnytte den bølgen.
Jeg fant dessverre ikke det som var ønsket av sjefene. Midt på 80-tallet var utvikling av kunstig intelligens begrenset til to programmeringsspråk som var bygd opp på en spesiell måte: Lisp for amerikanere og Prolog for engelskmenn. I Prolog skulle man legge inn sammenhenger og sannsynligheter og så skulle systemet selv finne ut hva som kom til å skje, akkurat som et mennesker tar inn over seg diverse fakta og sannsynligheter og trekker slutninger. Siden et slikt system arbeidet ovenfra og nedover i programlistingen var det åpenbart at utfallet av slutninger var avhengig av rekkefølgen man hadde lagt inn disse sammenhengene i; følgelig var det ikke mye intelligent over det hele, og Prolog forsvant raskt under horisonten.
Lisp hadde man mer tro på, men ulempen var at programmer i Lisp måtte kjøre på en spesialutviklet Lisp-datamaskin med spesialtilpassede terminaler i spesialdesignede nettverk. Husk at dette var midt på 80-tallet da personlige datamaskiner ennå ikke hadde kommet for fullt og det fantes en uhorvelig mengde spesialutviklede maskiner for alle mulige formål, med et utall forskjellige operativsystemer og andre virkemåter. Jeg oppdaget at beregningen av den kommende markedsverdien ikke, jeg gjentar, ikke hadde å gjøre med utvikling og salg av ekspertsystemer til alle mulige formål, hvor spesielt medisin og lovverk ble sett på som de første store bruksområdene. Tvert om, så ble markedsverdien beregnet ut fra hvor mange miljøer inkludert universiteter og store foretak som ville kjøpe Lisp-maskiner.
Og dette regnestykket hadde de altså greid å selge til finanspublikummet. Skuffelsen var til å ta og føle på på Sintef. Jeg skrev rapporter og holdt foredrag om KI, og ble kritisert av folk både på Sintef og NTNU; jeg vant to priser for beste foredrag på den største datakonferansen i Norden, og Sintefs reaksjon var at jeg kunne gjerne foredra om mine funn, men jeg måtte også være lojal mot Sintef fordi det var så mange kunder som ville at de skulle forske på dette. Istedenfor å se på konklusjonene mine og fortelle kundene at de ikke burde bruke penger på det. Jeg fortalte kollegaer som hadde KI-prosjekter både at prosjektene ikke ville lykkes og hvorfor, men de holdt nå på likevel – inntil de mislyktes. Alle mislyktes. Akkurat som det grønne skiftet i dag. Troen gir styrke – inntil verden faller sammen.
Finansboblen på nytt
Men kunstig intelligens kom igjen, og denne gangen med voldsom styrke, fordi datamaskiner arbeider så ufattelig mye raskere enn for førti år siden. Språkmodellene som er utviklet, krever noe uhorvelig med både antall prosessorer og kraft til å drive alle beregningene, for ikke å snakke om kjølevann til å lede vekk overskuddsvarmen. Med alle løftene som produseres ikke bare i glansede skrytemagasiner, men også i uante mengder på internett, og med et finansmarked som leter etter områder hvor alle pengene deres kan plasseres, så har KI blitt objektet for verdens største selvforsterkende markedsoverdrivelse. Millliardene ligger jo ikke i betaling for bruk av stadig nye dataverktøy, men i kjøp av utallige databrikker som må til for å ta unna etterspørselen, nå som så å si alle skal bruke KI til de enkleste ting.
Dette, å oppdage at markedsmanipulasjon kombinert med vilje til å plassere penger i noe som man sannsynligvis får mer igjen for, styrer finansmarkedet, som et religionssubstitutt uten realistisk forankring, var ganske skrekkelig, og dagens KI-boble er mye, mye verre enn den var for førti år siden.
Petter Smart, den forutseende oppfinneren
Markedet er nå så sin sak. Det finnes andre og dypere grunner til at KI må feile. De av oss som vokste opp med den geniale Donald-tegneren Carl Barks’ historier, fikk et intellektuelt og filosofisk grunnlag dagens generasjon bare kan drømme om; det er derfor de senere generasjonene bruker så mye lengre tid på å flytte hjemmefra, komme ut i arbeidslivet, stifte familie og bidra til samfunnet. Carl Barks skrev moralsk-filosofiske historier om menneskenes hybris også kjent som overmot gjennom Donald Duck, om ødeleggelsen av miljøet gjennom Pygmeinidanerne, om grådighet og pengebegjær gjennom Onkel Skrue, om det ødeleggende ved alltid å ha flaks gjennom Fetter Anton: og gjennom oppfinneren Petter Smart, om teknologi og datamaskiner.
Det var en dag da Petter syntes han hadde hatt en fin uke. Han hadde laget en maskin som kunne lese tanker, og en annen som kunne besvare alle spørsmål. Han testet svar-maskinen først, og spurte: «Hvorfor synger den fuglen der ute?» Maskinen svarte: «Kanskje den er glad! Kanskje den er lei seg! Kanskje den er litt sprø!» Hvilket på engelsk selvsagt er morsommere: «Maybe it’s glad! Maybe it’s sad! Maybe it’s a little mad!»
Petter blir irritert. «Jeg jobbet ikke en hel uke for å lage en maskin som bare sier kanskje! Svar nøyaktig hvorfor den synger!»
Men maskinen, som jo åpenbart er ekte intelligent, svarer: «Hvis du ønsker å finne det ut, hvorfor spør du ikke fuglen?»
Det er jo Petter enig i, så han spør: «Hva er den beste måten å fange en fugl på?» Og maskinen svarer: «Strø salt på halen dens!»
Petter blir lettere oppgitt. Han mener maskinen må ha en skrue løs, og prøver flere andre metoder for å fange fuglen, med lim, med nett, og til slutt ved å kle seg ut som fugl. Selvsagt lykkes ikke noe av det, og fuglen blir etter hvert så forskrekket at den lille lyspære-hjelperen til Petter greier å komme seg opp bak den med en saltbøsse, strør salt på fuglestjerten, hvorpå fuglen dåner av forskrekkelse. Endelig skal Petter få prøvd tankelesermaskinen, og etter å ha satt noe som ligner hodetelefoner på fuglen spør han på nytt hvorfor den synger. Og fuglen svarer, ikke overraskende, «Kanskje jeg er glad! Kanskje jeg er lei meg! Kanskje jeg er litt sprø!» Hvorpå Petter besvimer og fuglen hopper ut på grenen og synger videre.
Denne historien belyser det grunnleggende problem: Hvordan kan vi stole på en maskin når vi ikke vet hvordan den kommer frem til et svar? For vi fikk jo se at begge svarene Petter fikk, var korrekte. Det var bare ikke de svarene han forventet. Det å strø salt på halen til en fugl er et amerikansk vitsesvar som sier at det er umulig å fange en tilfeldig fugl uten videre. Så Petter oppfattet det første svaret som om maskinen ikke visste, og det andre svaret som det rene tøv. Selv om svarene altså var korrekte.
Programmering før og nå
I gamle dager ble datamaskinene grundig testet for alle mulige utfall, slik at man skulle kunne stole på dem i enhver sammenheng. Likevel kunne selve programmet man hadde laget, feile, så det ble lagt enormt med arbeid verden over i å programmere for alle mulige avvikssituasjoner og å behandle alle mulige feil som kunne oppstå, både uten og med menneskelig inngripen.
I dag blir ikke dataprogrammene testet for alle mulige utfall, for i dag skrives ikke programmer som i gamle dager. Tvert om, man lager først hovedforløpet, og etter hvert som ting skjer som ikke skal skje, så legger man inn tester på om disse tingene har skjedd eller ikke. Når programmet bare blir stort nok, så er det en naturlov at enhver retting av en feil vil føre til flere feil enn det som blir rettet. Derfor må flere og flere programmerere involveres, som i hovedsak sitter og retter rapporterte feil og tester disse.
Forretningsidéen er nå å la brukerne selv gjøre testingen. Er det ingen klager, er det fint. Kommer det klager, får man ta fatt i det da, dersom det nå er noe poeng. For en annen forretningsidé er å la brukerne betale kontinuerlig for bruken, og da vil de betale for hver eneste oppgradering og ny versjon på forhånd.
Hvis du tror dette er en overdrivelse, så er det bare å beklage. De fleste opplever at en app eller et program de har benyttet, ikke lenger virker som det gjorde. Det oppstår feil. Etter en stund forsvinner denne feilen. Det som har skjedd er at det er ordnet med en feil eller lagt inn en ny funksjon, og da har noen andre feil oppstått. Avhengig av alvorsgraden blir så den nye feilen prioritert opp eller ned i rekkefølgen av feil som nå må rettes.
Disse feilene kan være alt fra mildt irriterende til åpenbart kritiske. Enhver feil som oppleves av brukeren kan imidlertid lede til en oppgradering av programmet – forutsatt at programmererne vet hva de skal gjøre, og at lederne synes de kan prioritere det. Noen feil blir aldri rettet uansett. Jeg har en iPad som kobler seg til nettet når jeg skal lese nattens nyheter om morgenen. Etter noen uker begynner tilkoblingen å gå tregt, inntil den bare står og surrer og ikke greier å koble til.
For noen år siden da jeg fikk iPaden, og jeg ikke fikk koblet til, ble jeg fortalt at jeg måtte ‘svisje’ vekk alle vinduene jeg hadde oppe, og så kunne jeg klikke på tilkoblingen på nytt og det ville virke. Dette sto selvsagt ikke i noen brukerveiledning, det var tydeligvis noe man bare måtte vite. Og det må jeg altså gjøre etter noen uker igjen og igjen.
Det som skjer er at når en datamaskin kjører en applikasjon, som facebook eller nettleser osv. så bruker den av dataområdet som blir satt av til den. Dataområdene fylles etter hvert opp og til slutt er maskinen rett og slett full. Disse dataområdene skal egentlig slettes når de ikke lenger er i bruk, men et slikt program, som har det beskrivende navn ‘søppelinnsamling’, greier ikke å gjøre dette på en perfekt måte. Så blir dataområdene fullere og fullere og til slutt, når man ‘svisjer’ vekk programvinduet, så blir programmet terminert, dataområdet satt til null, og du kan starte på nytt.
Dette er en åpenbar feil, men til tross for operativsystem-oppdatering jevnlig, har den aldri blitt rettet. Jeg tror ikke programmererne tør. Og siden det bare er å svisje vekk og starte på nytt, så er ikke feilen regnet som viktig nok til å bli ordnet opp i.
Programmer med kunstig intelligens
KI-programmer funksjonerer ikke som vanlige programmer. Mange mennesker sier nå at de samtaler med KI, men det er ingen samtale. Den teksten de får ut er basert på en gigantisk database av forhold mellom ord, og hvor ofte disse ordene er koblet sammen med andre ord i setninger. Ett ord har relasjoner til masser av andre ord, med sannsynlighet for hvor ofte de er benyttet sammen, med avstanden mellom dem. Denne databasen er bygget opp ved ‘trening’, som ikke er annet enn at enorme mengder data fra internett blir gått gjennom og disse relasjonene bygges opp i enorme tabeller. Det er derfor det trengs så mange databrikker, både proseessorer og datalagre. Hvert eneste KI-søk tar enorme mengder datakraft; det maskeres av at det går så hurtig, men det er derfor det bygges utallige datasentre over alt hvor man finner billig kraft.
Det er ingen fornuft eller intelligens bak KI-svar. Du kan manipulere det KI-programmet du bruker til å få det til å skifte mening. Det er mange som bruker masse tid på dette og stolt presenterer resultatet i facebook-grupper: «KI-programmet mitt var enig med meg!» «KI-programmet sier sånn og slik og da tar de som er uenige, feil!» Tro kan tydeligvis flytte fjell for tiden.
Men KI-programmet er ikke enig med noen. Det ser kun på statistikken. For et par dager siden søkte jeg for å finne om jeg kunne bruke et eldre lysrør jeg hadde liggende i et nytt LED-lysrør-armatur, og dessverre kommer alltid KI-svaret opp øverst når du bruker google. Og hva tror du KI-svaret sa? Joda, det forstår så veldig godt hva jeg spør om, så det svarte at nye LED-lysrør ikke kunne brukes i gamle armaturer. Dette goddag mann økseskaft-svaret kommer da fordi mange flere har spurt om nye rør kan brukes i gamle armaturer, og færre har ønsket å vite motsatt.
På akkurat samme vis vil et teologisk svar være avhengig av hvilken teologi som har vært utgangspunkt for de fleste tekstene, slik at om man spør i Tyskland så får man et luthersk svar, men om man spør i Italia får man et katolsk svar.
Svarene er avhengig av at det finnes tilstrekkelig med oppbygde relasjoner. Dersom dette ikke har skjedd, vanligvis fordi slike data ikke finnes på nettet – man skal ikke ha for store forventninger til hva som er søkbart på nettet – så vil statistikken alltid lete seg frem til ord som kan passere for svar. Da kona spurte hvem den mest kjente skihopperen fra Narvik var – det finnes ingen kjente skihoppere fra Narvik – fikk hun Bjørn Wirkola til svar. Sammenhengen kan man da pusle seg frem til: Narvik ligge i Nord-Norge og Wirkola er skihopper, fra Alta som også ligger i Nord-Norge. KI fant tydeligvis ingen tekst som opplyste om at Wirkola ikke var fra Narvik.
Det er slike sammenhenger som fører til at juridisk personell kan produsere skriv til retten som inneholder referanser til dommer som ikke finnes i dokumenter som ikke finnes og at kommunalt ansatte kan produsere utredninger for kommunen som inneholder referanser til saker som aldri har funnet sted med saksdokumenter som aldri har vært skrevet. Det kalles for tiden KI-hallusinasjon.
Dette skjer fordi slike personer, uavhengig av utdannelse og eget intelligensnivå, stoler på at et KI-program produserer noe som er i samsvar med virkeligheten. Det kan det gjerne være, men da er det ikke fordi det finnes noe intelligens bak resultatet, men fordi statistikken i de enorme databasene av ord har kommet frem til noe som – tilfeldigvis – er i samsvar med virkeligheten.
Troen på denne statistikken er derfor et interessant fenomen rent psykologisk. Enkle og kjente sammenhenger gir sterke statistiske bindinger, så enkle og rett frem spørsmål kan som regel bli riktig besvart. Men en oppgave over en viss kompleksitet og med lite statistisk belegg har mye større sannsynlighet for å feile; jo større, desto verre blir resultatet. Likevel vil folk ha en opplevelse av at KI-programmet svarer sant og dermed også bortforklare det når programmet feiler. Om de nå oppdager det da. Det er altfor mange som bruker KI-programmer blindt.
KI-programmering
Det samme gjelder programmering. Studenter og akademisk ansatte er opp i under over hvor enkelt det er å programmere med et KI-program. Dette er enkelt å forstå: enkle og ukompliserte programmer har man mye statistikk på, så de fremstilles super-raskt. Men så lenge man fortsetter med samme programmerings-stil som beskrevet over, vil programmeringen feile mer og mer med kompleksiteten. Forskjellen nå er at KI-programmer er mye vanskeligere å feilsøke. Mye vanskeligere. Ekstremt mye vanskeligere.
Det som er morsomt for en ikke-troende som meg, er alle rapportene om forferdelige feil innen programmeringsverdenen. Dataprogrammer settes gjerne sammen av masse småbiter som ligger tilgjengelig for bruk. Det pussige med KI-programmering er at det nå bruker statistikk til å finne disse småbitene og sette dem sammen. Dersom nå en uærlig eller oppfinnsom sjel finner på å ta en av disse småbitene og legge inn noen ekstra programlinjer som f. eks. sender alle data i programmet til Kina, er det ingen som for det første legger merke til det og for det andre vil småbitene migrere til utallige andre programmer. Det strenge sikkerhetsregimet man har i både institusjoner og bedrifter blir simpelthen pulverisert av blind tro på KI-programmering.
Derfor kunne jeg her om dagen lese at det var en bedrift et sted i USA som hadde laget et system ved hjelp av KI som etter hvert fikk masser av kunder som både benyttet det og lagret sine data ved hjelp av det. Ved en oppgradering av brukerprogrammet fant tydeligvis KI-programmet noen småbiter som statistikken hjalp til å sette inn, hvorpå brukerprogrammet nå slettet alle brukernes data inkludert backup.
Eksemplene er utallige. KI-bruk kan være i orden ved mindre oppgaver, men allerede da er der en risiko for feil, som bare blir større og større med kompleksiteten.
G. K. Chesterton, amatørenes skytshelgen
I 1903 skrev den unge journalisten G. K. Chesterton en artikkelserie hvor han beskrev nedgangen han observerte i diverse aktiviteter som ble bedrevet av amatører. Det ble færre amatørdansere, fordi folk heller så på at profesjonelle dansere danset, fordi de var bedre til å danse. Det samme gjaldt amatørkritikere, amatørskuespillere, amatørpolitikere, amatørsoldater. Men verdien i å være amatør ligger ofte i at du gjør det du gjør uansett om du får betalt for det eller ikke, fordi det er viktig å gjøre det. Det ligger i ordet ‘amatør’ at du gjør noe fordi du elsker å gjøre det. En profesjonell gjør det bare dersom han får betalt. Dette førte til at Chesterton skrev en bok i 1910 om «What’s Wrong» hvor han postulerte: «Dersom en ting er verdt å gjøre, er den verdt å gjøre selv om det ikke blir perfekt!» Eller på engelsk: «If a thing is worth doing, it’s worth doing badly!”
Sånn riktig for å demonstrere at Chesterton hadde rett, ‘forbedret’ utgiveren tittelen til «What’s Wrong with the World», hvilket slett ikke var en bedre tittel.
Siden dette så har folk sluttet å synge fordi de heller hører på profesjonelle sangere fordi de synger bedre, de ser heller på profesjonell fotball enn å spille selv fordi proffene er bedre til å spille, tendensen er rett å slett å slutte å gjøre ting selv fordi andre, som er profesjonelle, er bedre til å gjøre det samme. Det blir født færre og færre barn, og det er fristende å si at folk slutter å ha seg med hverandre fordi de heller kan stirre på en skjerm og se på andre folk ha seg fordi disse er flinkere til å ha seg enn de selv. Folk har sluttet å diskutere fordi de heller kan slå på TV og se på et program de kaller ‘Debatten’, hvor folk som har betalt for å debattere, debatterer for dem. For den saks skyld er det (altfor) mange som kjøper billigmat fordi det er så å si ferdig tillaget i profesjonelle og sterile omgivelser, heller enn å bruke tid på å lage ordentlige måltider for seg og familien.
Oppvaskvann og pompøse profeter
Jeg er en skrivende amatør, jeg elsker å skrive, og jeg er ikke interessert i at andre skriver noe for meg eller forbedrer det etter statistiske regler. Jeg skriver selv, og så får det være uperferkt, fullt av digresjoner, springende og krydret med egne anekdoter. En kompis av meg drev på en stund og ‘forbedret’ tekstene sine ved ‘hjelp’ av KI-programmer, og måtte innse at fortellerstemmen hans ble borte.
Det er derfor jeg kjenner smaken av oppvaskvann i KI-tekster, for oppvaskvann er summen av alle restene av all den gode maten og drikken på tallerkener og i glass, godt sammenblandet og utvannet og tilsatt litt parfymert såpe.
I den senere tid har ulike stilarter blitt mulige å ta i bruk i et KI-tekstproduksjonssystem. En av de mest enerverende er den ‘pompøse profet.’ Denne taleren taler i korte setninger, med godt med pause mellom setningene. Hver setning skal dveles ved. Man skal ta setningen godt inn over seg, og puste både inn og ut før man går løs på neste setning. Denne opphakkede stilen ødelegger alt som heter talemusikk og flyt, den er teatralsk og hindrer leseren i å se poenget, fordi hver eneste setning blir et viktig poeng. Det er som om kunstpausene blir viktigere enn teksten selv; det tar uendelig med tid å komme gjennom teksten og finne ut hva vedkommende vil si. Og når du er ferdig med å lese det innser du at du har lest akkurat det samme tusen ganger allerede.
Bruken av kunstig intelligens-programmer fremskaffer ikke kunst, og den avslører bare at vedkommende som bruker dette ikke engang stoler på sin egen intelligens til å frembringe det samme. Ønsket om å virke mer ‘profesjonell’ avslører bare latskapen ved at man ikke tar seg tid til å lage en tekst som sier noe personlig. Denne latskapen gir seg uttrykk i dårlige og ofte merkverdige og inkonsekvente tekster, pussige figurer med åpenbare feil, forferdelige og dramatiske illustrasjoner, og oversettelser med de mest ufattelig dumme formuleringer. Man er nemlig ikke bare lat når det gjelder å gjøre noe selv, men man er så lat at man ikke engang gidder å kontrollere det som kommer ut av KI-programmet, jfr de før nevnte advokater og kommunerådgivere.
Det er dette som gjør at jeg konsekvent nekter å lese noe som er produsert av KI, og konsekvent nekter å stole på det. Denne latskapen har gjort at selv noen av de beste alternative nettstedene jeg har brukt å lese daglig, nå virker til dels frastøtende på meg. Når det gjelder bruken av KI i hovedstrømsmedia, de som tidligere ble kalt hovedstadsavisene, er den så banal at jeg ikke lenger følger med. Lokalavisen har rett som det er noen formuleringer i både overskrifter og tekster som ikke bare har vært laget med KI, men ikke engang kontrollert etterpå. Men nå har det blitt så dumt at jeg har sluttet å le.
Konsekvensen av KI er dystopien
En viktig ingrediens ved moderne programmering er mønstergjenkjenning. Dette kalles KI, muligens fordi det anses som intelligent å gjenkjenne mønstre. Men mønstergjenkjenning handler om å bruke hyperkjappe programmer til å finne mønstre i store datamengder, og selvsagt har dette imponerende resultater selv om det ikke er intelligens forbundet med det. Slik mønstergjenkjenning skal fremover bare brukes mer og mer til ansiktsgjenkjenning og annen overvåking. Når maskinene kan prosessere informasjon raskere enn menneskene, får ikke menneskene engang anledning til å kontrollere maskinene. Da vil det ikke bety noe om vi stoler på maskinene eller ikke, for da gjør maskinene som de vil når de er satt i gang. Eller som de er programmert til.
En annen av Petter Smarts maskiner kunne forutse fremtiden. Det gjorde den helt perfekt ut fra Petters spørsmål. Likevel feilet den gang på gang, fordi Petter ikke greide å stille de riktige spørsmålene. Han spurte om hvor han kunne finne fisk, og maskinen fortalte ikke at fisken var så stor at den ville dra Petter uti. Han spurte om trafikken på veien han skulle kjøre ut på og maskinen fortalte ikke at bilen som kom motsatt vei kjørte i feil kjørebane. Vi mennesker stiller alltid spørsmål og lager oppgaver ut fra en kontekst. Denne konteksten finnes ikke i KI-maskineriet.
Petter laget en gang en maskin som kunne hjelpe Bestemor Duck på gården, ved å produsere matvarer direkte fra jord og gress. Han forkastet den imidlertid fordi gården da ikke ville bli annet enn en kald fabrikk, uten dyrene på gården, uten alle aktivitetene der.
Slik forkaster jeg KI-maskineriet fordi det erstatter både fremstillingen av kunst, bruken av ekte intelligens, og alt som tilhører amatørens deilige og uperfekte liv, med latskap og upersonlig oppvaskvann.
oss 150 kroner!


