Kronikk

Kunstig intelligens er en eksistensiell trussel

Jakob Graabak
Aksel Braanen Sterri
Først publisert i:
Aftenposten

Når verdens fremste eksperter advarer om at kunstig intelligens kan utgjøre en trussel på nivå med pandemier og atomkrig, er det på tide å lytte. Et gram med fremsyn er verdt et tonn med etterpåklokskap. Vi bør handle i dag, heller enn å angre i morgen.

Last ned

KI-generert illustrasjon fra Midjourney

Hovedmomenter

1

2

3

4

Innhold

Økende oppmerksomhet

Å redusere risikoen for at kunstig intelligens utrydder menneskeheten bør være en global prioritet på lik linje med andre store samfunnsrisikoer, slik som pandemier og atomkrig.

Ordene tilhører 350 eksperter, inkludert verdensledende forskere, teknologer og industriledere. 30. mai signerte de et opprop som fikk internasjonal oppmerksomhet.

I Norge er imidlertid stemningen annerledes. Fysiker Inga Strümke, som nylig ga ut bok om kunstig intelligens, er oppgitt over det hun kaller «ulv, ulv»-stemning. Men vi kan ikke vente med å rope ulv til ulven er kommet.

Verdenssamfunnet var ikke forberedt på covid-19, og klimaomstillingen skulle startet for mange tiår siden. Vi vet allerede nok til å ta på alvor risikoen for at kunstig intelligens får katastrofale konsekvenser.

Skadelige algoritmer

At «smarte» systemer kan ha uheldige konsekvenser, bør være åpenbart. Algoritmene som ble brukt til å kjøpe og selge aksjer på New York-børsen, skapte enorm profitt helt til de i 2010 bidro til et «flash crash»«flash crash»En lynrask nedgang i en aksje eller en indeks. som medførte tap på tusenvis av milliarder av dollar. For et par måneder siden tok en belgisk tobarnsfar livet sitt på oppfordring fra chatboten Eliza, ifølge avisen La Libre.

Slike konsekvenser er imidlertid ikke årsaken til at kunstig intelligens settes i samme bås som pandemier og atomkrig. Bekymringen er at teknologien kan ha katastrofale konsekvenser, ikke bare for enkeltmennesker, men for menneskeheten.

Vi kan ikke vente med å rope ulv til ulven er kommet

Ett problem er at ondsinnede aktører kan misbruke teknologien, for eksempel til å lage masseødeleggelsesvåpen. Et annet er at kunstig intelligens vil lede til samfunnsmessig systemsvikt, for eksempel ved at teknologien knekker våre digitale sertifiseringssystemer for å etablere hvem som er hvem, eller forårsaker arbeidsledighet i stor skala.

Ekspertene bak oppropet er imidlertid mest bekymret for at vi lager superintelligente systemer som utsletter oss. Superintelligente systemer er pr. definisjon smartere enn oss, og de utgjør en eksistensiell trussel fordi det er vanskelig å kontrollere og stoppe et smartere system. Bare spør alle andre dyr på planeten. Deres eksistens er fullstendig avhengig av hva vi mennesker velger å gjøre.

Selektiv ris og ros

Utviklernes håp er at de kan lage systemer som handler i tråd med våre interesser. Men det eksisterende paradigmet, som har gitt oss ChatGPT og AlphaFold, gir ingen slike garantier. Disse algoritmene er trent som hundehvalper: Algoritmen får belønning når den har vært flink. I respons utvikler den interne tommelfingerregler for å maksimere sjansen for å få belønning i fremtiden.

Selv om selektiv ris og ros ofte fører til formålstjenlig adferd, vet vi ikke hvilke interne regler maskinen lager, og om de nødvendigvis overlapper med våre interesser.

Hvis vi bare kunne slå av systemer som viser seg å være skadelige, hadde vi hatt mindre å frykte. Men på samme måte som at vi ikke bare kunne slå av covid-19 etter at det hadde spredt seg fra Wuhan, slå av den russiske regjeringen etter at landet invaderte Ukraina, eller slå av kjente datavirus som WannaCry eller Stuxnet dersom de spres til feil maskiner, kan det allerede være for sent å slå av algoritmen når man ser tegn til at den er skadelig.

Vi vedgår gjerne at argumentet er spekulativt. Vi trenger imidlertid ikke vite med sikkerhet at kunstig intelligens vil utslette oss, for å ta grep for å minimere risikoen. Risikoen for en ny Tsjornobyl er liten. Men vi dropper ikke strenge sikkerhetstiltak for atomkraftverk av den grunn.

Hvordan forhindre risiko

Så hva bør vi gjøre? Vi foreslår fire konkrete initiativer som kan redusere de største risikoene.

  • Vi bør regulere kunstig intelligens for å hindre bruk av teknologien til å utvikle masseødeleggelsesvåpen. Våpenleverandører kan ikke selge våpen til terrorister. Vi må likeledes kreve at teknologiselskaper ikke bistår ondsinnede aktører. Selskapene som utvikler teknologien, må holdes ansvarlige dersom deres modeller brukes til å utvikle biovåpen eller avanserte former for hacking.
  • Vi må opprette sikkerhetsstandarder for utvikling og utrulling av nye kunstig intelligens-modeller. Modellene må testes og verifiseres under overvåking av uavhengige tredjeparter før de kobles til internett eller tas i bruk. Det må også være mulig å rulle tilbake modeller som har vist seg å være skadelige.
  • Vi må sikre at godene fra kunstig intelligens tilfaller alle. Selskapene tar en risiko på vegne av hele menneskeheten, og de bør ikke få privatisere profitten i mellomtiden. Mulige løsninger er en skatt på datakraft, en vindfallklausul eller lignende. Et alternativ er mer politisk styring av teknologien for å forhindre massearbeidsledighet.
  • Norge burde ta initiativ til et internasjonalt forskningssamarbeid, et CernCernDen europeiske organisasjon for kjernefysisk forskning. for trygg kunstig intelligens. Et slikt samarbeid kan fokusere på tekniske utfordringer som hvordan unngå uærlig eller manipulerende oppførsel, eller utvikle modeller som kan justeres etter de er blitt tatt i bruk.

I ferd med å våkne

Risikoen for katastrofale konsekvenser er stor nok til at vi trenger umiddelbar handling. Mange forskere tror det er mulig å lage superintelligente systemer, og at det skjer innen 40 år.

I år er det 40 år siden Brundtland-kommisjonens rapport om klimaendringene. Mange hevdet at vitenskapen tidlig på 1980-tallet var for usikker til å forsvare drastisk handling. Men med fasiten i hånd vet vi at de tidlige klimamodellene har vært overraskende treffsikre, og at vi burde ha tatt grep tidligere. Det samme gjelder kunstig intelligens.

Heldigvis ser det ut til at norske politikere er i ferd med å våkne til hverdagen der kunstig intelligens er et av vår tids viktigste temaer, blant annet med et ekspertutvalg fra Høyre og representantforslag fra Sosialistisk Venstreparti. Vi forventer at politikerne tar den eksistensielle risikoen fra kunstig intelligens like seriøst som andre sider ved teknologien.

Som Strümke sier: «Vi har ikke sett kunstig intelligens gjøre skade på nivå med atomvåpen ennå.» La oss sørge for at det sitatet aldri går ut på dato.

Last ned