Hovedmomenter
I høst har KI-risiko vært gjenstand for en uvanlig bred og faglig sterk debatt i Norge. Besøket av Yoshua Bengio satte langsiktige spørsmål om kontroll og sikkerhet på dagsorden, samtidig som diskusjonene om et mulig norsk KI-sikkerhetsinstitutt har løftet behovet for institusjonelle grep.
Flere gode innlegg har bidratt til å nyansere bildet. Tellef Raabe og Preben Ness har i felles innlegg reist viktige spørsmål om risiko, beredskap og digital samfunnssikkerhet, mens Arnoldo Frigessi tydelig har skilt mellom konkret, operasjonell KI-risiko og mer spekulative fremtidsscenarier. I tillegg har Barbara Wasson og Anja Salzmann og andre akademiske bidragsytere pekt på hvordan norske forskningsmiljøer allerede arbeider bredt og seriøst med KI-risiko – teknisk, institusjonelt og samfunnsmessig.
I Norge bygges det nå opp et bredt og seriøst KI-landskap. De seks nye forskningssentrene for kunstig intelligens operasjonaliserer KI på ulike måter – i helse, språk, industri, samfunn og teknologi – med sikkerhet, kvalitet og ansvarlighet som en del av selve forskningsoppdraget. Parallelt finnes sterke miljøer innen statistikk, informatikk, juss, etikk, samfunnssikkerhet, utenrikspolitikk og cybersikkerhet. Dette er ikke et land preget av naiv tekno- eller KI-optimisme.
KI-risiko er ikke én ting
Samtidig ser vi at begrepet «KI-risiko» ofte brukes som om det var én enhetlig utfordring. I virkeligheten rommer det alt fra systemisk teknologisk risiko og algoritmiske skjevheter til samfunns-, demokrati- og verdikonsekvenser — som krever ulike verktøy, ulike svar og ofte tverrfaglige perspektiver. KI-risiko er mange ting, og handler om ulike mekanismer, ulike tidshorisonter og helt ulike politiske svar. Når ulike former for KI-risiko blandes sammen i ett resonnement, svekkes både den offentlige debatten og politikken som følger av den.
Arnoldo Frigessi har et vesentlig poeng når han insisterer på å skille mellom risikotypene. Noe handler om operasjonell risiko her og nå: Feil i modeller, skjevheter i data, manglende robusthet, dårlig testing og bruk av KI i helse, justis og forvaltning uten tilstrekkelig kvalitetssikring. Dette er konkret risiko med konkrete konsekvenser. Det er her mye av arbeidet med pålitelig og sikker KI faktisk ligger.
Samtidig løftes en annen type bekymring frem i debatten: det vi kan kalle kontroll- og styringsrisiko. Når Bengio advarer, handler det i stor grad om makt og institusjoner: hvem utvikler de mest avanserte systemene, hvem kontrollerer infrastrukturen, og hvilke samfunn låses vi inn i når KI blir en grunnleggende del av beslutninger, økonomi og offentlig styring. Dette er ikke primært et teknisk spørsmål, men et politisk.
Dette er heller ikke det samme som eksistensiell risiko. Eksistensiell risiko handler om langt mer hypotetiske scenarioer, der ekstremt avansert KI – langt forbi dagens systemer – i prinsippet kan komme ut av menneskelig kontroll. Sannsynligheten er usikker og tidshorisonten lang, men konsekvensene potensielt enorme. Derfor er det legitimt å forske på dette også. Men det er en annen type risiko enn både dagens operasjonelle utfordringer og dagens styringsspørsmål.
I tillegg kommer et risikobilde som ofte får for lite oppmerksomhet: hybride risiki. Det er her KI møter IT-systemer, operasjonell teknologi, automatisering, roboter, sensorer og droner – ofte koblet sammen gjennom nettverk som også er sårbare for cyberangrep. Når KI brukes til å styre fysiske systemer (som bil, buss, støvsuger eller fabrikk), kan digitale feil eller angrep få direkte, materielle konsekvenser. Dette er ikke science fiction, men en stadig viktigere del av virkeligheten i industri, energi, transport og beredskap. Også i vår hverdag.
Her smelter KI-risiko, cybersikkerhet og operasjonell risiko sammen. Det krever tverrfaglig kompetanse og nye former for sikkerhetstenkning – ikke bare bedre algoritmer.
Bedre sorterte bekymringer
Poenget er ikke å rangere disse risikoene mot hverandre, men å skille dem. Det er mer enn nok bekymringer og arbeid til alle: til dem som jobber med sikker KI i praksis, til dem som analyserer styring, makt og institusjoner, til dem som forsker på eksistensielle scenarioer, og til dem som håndterer cyber- og operasjonell sikkerhet i hybride systemer. Ulike risikoer krever ulike virkemidler og prioriteringer.
Det er også viktig å løfte frem det positive, som ofte forsvinner i risikodiskusjonen. KI er allerede et kraftig verktøy for bedre diagnostikk, mer effektiv forvaltning, smartere energibruk og økt verdiskaping. At teknologien også innebærer risiko, er ikke et argument for å trekke seg tilbake, men for å engasjere seg mer – faglig, politisk og institusjonelt.
Når de største aktørene globalt – OpenAI, Anthropic, DeepSeek, Google og Meta – kappløper om stadig mer avanserte modeller, gjør de det ikke bare av kommersielle grunner. De handler også ut fra en overbevisning om at deres teknologiske spor er den beste garantien mot alvorlig risiko på sikt. Kappløpet handler dermed både om sikkerhet, makt og fremtidig samfunnsform.
Uansett utfall må vi leve i samspill med stadig mer avansert intelligens. Da trenger vi bedre sorterte bekymringer – og flere som også er villige til å arbeide med mulighetene.
Som Yoshua Bengio skriver i Time, oppstår den mest komplekse og styrbare KI-risikoen i skjæringspunktet mellom teknologiutvikling, kommersielle insentiver og politisk styring. Det er her handlingsrommet fortsatt finnes – men også her det raskt snevres inn.
Skal politikken gjøre mer enn å reagere i etterkant, krever det ny kunnskap, institusjonell kapasitet og aktiv og klok styring. Å rydde i begrepene rundt KI-risiko er derfor ikke en akademisk øvelse, men et nødvendig første grep for å kunne forme utviklingen mens det fortsatt er mulig.
Mer fra Langsikt

Et gyllent år for KI
2026 vil bli et gyllent øyeblikk for kunstig intelligens. Vi bør nyte det så lenge det varer.

Hva vil skje med jobbene?
Rammeverk for å forstå KIs effekt på økonomien.

Data er ikke som olje. Den er bedre.
Data mangler det vi hadde for olje: en institusjonell arkitektur rundt ressursen.

Pseudokode er enkelt – politikk er vanskelig. KI-budene bygger broen
if/else løser ingenting i et adaptivt, komplekst system som Norge. KI-politikk krever systemforståelse, naturhensyn, sikkerhet og velgeraksept – og det krever felles prinsipper før vi kan skrive de konkrete funksjonene.
Se alle våre publikasjoner her
