Debattinnlegg

KGI er ikke futurisme

Jacob Wulff Wold
Aksel Braanen Sterri
Først publisert i:
Klassekampen

At problemene tilhører fremtiden, betyr ikke at vi bør utsette diskusjonen om kunstig generell intelligens til vi står midt oppi dem.

Last ned

KI-generert illustrasjon fra Midjourney

Hovedmomenter

1

2

3

4

Innhold

Kunstig generell intelligens, altså KI som kan gjøre så godt som alle arbeidsoppgaver minst like bra som mennesker, er på vei. Vi er i dag fullstendig uforberedt på det som kommer, og våre KI-eksperter kommer med uforenlige påstander.

«Vi er stadig sikrere på at [KGI] kommer», sier KI-forsker Morten Goodwin til Aftenposten, og indikerer at det kan skje allerede de neste ti årene. KGI kan «forandre menneskeheten for alltid», hevder Inga Strümke. Likevel er KGI et futuristisk tema som hører «mest hjemme i Hollywood». Det bør ikke være tema for seriøse samfunnsanalyser, sier Strümke på NRK Urix.

Trioen av påstander henger ikke på greip. Hvis KGI kan være her innen tiåret og det kan forandre menneskeheten for alltid, kan vi ikke overlate utfordringen til Hollywood. Vi trenger en faglig fundert samtale og politisk handling.

Vi har allerede et faglig grunnlag å stå på. KI-forskere i verdensklasse, som Geoffrey Hinton, Yoshua Bengio og Stuart Russel, har i flere år skrevet bøker, forskningsartik­ler og kronikker om politiske og tekniske grep vi kan ta for å sikre en trygg fremtid med KGI.

At noe tilhører fremtiden, eller at fremtiden er usikker, betyr ikke at vi bør utsette diskusjonen til vi står midt oppi problemet. I dag er vi i etterkant med løsningen av klima­problemet fordi vi ikke tok forskernes fremtidsscenarioer på alvor.

Nå er FNs klimapanel og internasjonale avtaler standardreferanser når vi utvikler klimapolitikk. Tilsvarende trenger vi FNs KI-panel, KI-scenarioer og internasjonale KI-sikkerhetsmål.

Hva er det som gjør KGI så banebrytende? Én forklaring har å gjøre med at KI er et alternativ til arbeidskraft. Siden KI er dataprogram, kan de kopieres og driftes med minimal ressursbruk sammenlignet med mennesker.

Siden KGI per definisjon kan utføre alle oppgaver like bra som mennesker, vil det kunne gi tilnærmet ubegrenset arbeidskraft. Sett denne arbeidskraften i jobb med problemer som klimaendringene, sykdommer eller fattigdom, så blir det enkelt å se for seg KGI som løsningen på alle problemene våre.

«Vi mangler klimaløsninger fordi vi ikke tok forsk­ernes fremtidsscenarier på alvor»

KGI gir også makt til den som kontrollerer teknologien. Slik KGI kan gi oss nye medisiner og grønn teknologi, kan den også skape nye biologiske virus, datavirus og masseødeleggelsesvåpen.

KGI kan også konsentrere makt. I dag er selv diktaturer avhengige av folks stilltiende samtykke. Men KGI gir elitene en annen maktbase enn folks arbeidskraft og evne til å holde våpen. Hvis stater blir mindre avhengige av sine velgere, kan selv demokratiske samfunn gå i en totalitær retning.

En annen bekymring er at vi lager systemer vi ikke forstår. Forskere og utviklere har ingen robuste metoder for å sikre at KI oppfører seg som de vil etter treningsfasen. Mange forskere er redde for at vi kan miste kontrollen over en KGI som er utviklet med dagens metoder. Vi risikerer å starte en prosess vi ikke kan stoppe, og miste kontrollen over fremtiden.

I dag utvikles vår kraftigste teknologi i et knippe profittmaksimerende bedrifter uten nevneverdig regulering. Vi kan bedre enn det.

Først av alt må KI-sikkerhet ti hakk høyere på dagsorden. I Norge skryter regjeringen av å ha satt av én milliard til KI-forskning over 5 år. Storbritannia har allerede brukt mer enn en milliard på KI-sikkerhet. Deres nyetablerte AI Safety Institute vil kunne benytte seg av investeringen på 20 milliarder til offentlig eid datakraft.

Som klimaendringene er KGI en internasjonal utfordring som krever internasjonale løsninger. Men der klimaendringene er vanskelig å løse fordi skylden og ansvaret er distribuert på hele verdens befolkning, er utviklingen av kraftig KI konsentrert hos en håndfull mektige aktører.

En regulering av datakraften kan sikre at pålitelige aktører får tilgang til nok av de essensielle databrikkene som kreves for å utvikle kraftig KI, og at lite pålitelige aktører ikke får det. Norge og Norden kan være pådrivere for slike initiativ.

Regulering av KI-utviklingen burde bygge på internasjonale forskningssamarbeid på KI-sikkerhet. Et forslag er å opprette et «CERN» for sikker KI, der det forskes på hvordan vi lager sikrere systemer, slik at vi kan forberede oss på ulike scenarioer.

Et slikt forskningsprosjekt kan også utvikle offentlige KI-modeller, slik at de kommersielle selskapene må konkurrere mot alternativer som er laget med samfunnsnytte som mål.

Hvis det viser seg å være for risikabelt å la tek-selskapene lage KGI, kan vi kvele datakraften deres slik at neste generasjon grunnmodeller må utvikles i et felles internasjonalt samarbeid som prioriterer sikkerhet og samfunnsnytte fremfor hastighet og profitt.

KI-politikk er fortsatt i en formbar fase, men Norge står på sidelinjen. Det er på høy tid at vi begynner å følge med på utviklingen utenfor landegrensene.

Last ned