Vi trenger et forskningsinstitutt for KI-sikkerhet
Kunstig intelligens blir vår neste samfunnsinfrastruktur. For å kunne stole på den, må vi forstå hvordan den lærer, resonnerer og påvirker oss tilbake. Norge bør opprette et forskningsinstitutt for KI-sikkerhet — ikke som tilsyn, men som en arena for innsikt, verdier og robust samfunnsforståelse.

KI-generert illustrasjon fra Midjourney.
Hovedmomenter
Kunstig intelligens er i ferd med å endre selve grunnlaget for hvordan kunnskap skapes og brukes. Den skriver, tolker, analyserer og forutser. I stadig flere sammenhenger lærer systemene ikke bare på våre vegne — de lærer for oss.
Dermed endres også hva vi betrakter som gyldig kunnskap, og hvordan vi tar beslutninger.
Vi skaper teknologien, men den begynner også å forme oss tilbake. Denne gjensidige påvirkningen krever et nytt forskningsblikk: ikke bare på hva KI kan, men på hva den er.
Et norsk forskningsinstitutt for KI-sikkerhet bør være et slikt sted. Ikke et nytt forvaltningsorgan, men et faglig miljø som kobler og utforsker hvordan kunstig intelligens lærer, vektlegger og påvirker samfunnets institusjoner.
Regjeringens KI-milliard har styrket anvendt teknologiutvikling, men Norge mangler et institutt som systematiserer og utvider forskningen på forståelse, verdier og risiko.
De fleste KI-systemer vurderes i dag ut fra presisjon og nytte, mens selve læringsprosessen forblir utydelig. Et norsk institutt må derfor bygge forskning i både tolkbarhet og forklarbarhet — to komplementære perspektiver på maskinell forståelse.
Forklarbarhet handler om å gjøre modellens beslutninger etterprøvbare for mennesker. Tolkbarhet handler om å forstå hvordan systemet faktisk danner mønstre og prioriteringer. Slik kunnskap er en forutsetning for tillit — og for ansvarlig bruk i helse, rettsvesen og offentlig forvaltning.
Teknologien vi bruker, er sjelden utviklet på norske premisser. De fleste modellene trenes på datasett og idealer som reflekterer andre samfunnsforståelser — om effektivitet, konkurranse og kontroll.
Et norsk forskningsmiljø må derfor kunne teste og evaluere systemer mot våre egne verdier: åpenhet, likebehandling, rettssikkerhet og tillit. Dette er en ny form for samfunnsvitenskap — en forskning på hvordan verdier faktisk tar form i algoritmers atferd. Her ligger et mulig forskningsbidrag fra Norge som andre små land vil kunne lære av.
Når KI tas i bruk i helse, energi eller forvaltning, endres ikke bare beslutningene, men også menneskene som tar dem. Roller, ansvar og dømmekraft forskyves. Et forskningsinstitutt må kunne studere denne nye intelligensfordelingen mellom menneske og maskin — hvordan kultur, tillit og ansvar endres i institusjoner som lærer å samarbeide med algoritmer.
I snever forstand handler KI-sikkerhet om robuste systemer — motstandsdyktige mot feil, angrep og manipulasjon.
Men i bredere forstand handler det om robuste samfunn: hvordan vi bevarer forståelse, kontroll og verdiforankring i møte med teknologi som utvikler seg raskere enn institusjonene våre.
Et norsk forskningsinstitutt bør kombinere kortsiktig risikoforskning med studier av de langsiktige konsekvensene: hvordan verdier kan kodes inn og vedlikeholdes over tid, hvordan samfunn kan bygge institusjoner som tåler teknologisk usikkerhet, og hvordan vi kan forstå KIs eksistensielle risiko uten retorikk eller frykt.
Sikkerhet handler dermed ikke om å beskytte samfunnet mot KI, men om å beskytte KI mot å miste kontakten med samfunnet.
Kina utvikler KI etter statlige mål. USA lar markedet styre. EU forsøker å regulere. Norge kan velge en fjerde vei — en tillitsbasert modell der teknologi utvikles innenfor institusjoner som speiler samfunnets verdier og kan etterprøve dem i praksis.
Et forskningsinstitutt for KI-sikkerhet kan bli en slik modell: et sted som kombinerer teknologisk innsikt med samfunnsvitenskapelig dømmekraft. Ikke for å bremse utviklingen, men for å gi den retning.
Slik kan Norge bidra til å bygge teknologi som ikke bare fungerer — men som virker for oss.
Mer fra Langsikt
.png)
Maskinen kan finne snarveier i tanken
En maskin har forbedret en av informatikkens mest grunnleggende ideer – Dijkstras algoritme for korteste vei. Det markerer et vendepunkt, der grensen mellom menneskelig innsikt og maskinell beregning viskes ut.

Ti bud for KI
Kunstig intelligens har enormt potensial til å øke menneskelig velferd, men innebærer også farer uten sidestykke.

Mediekrise på trappene
Kunstig intelligens kan undergrave medienes forretningsmodell.
Se alle våre publikasjoner her
