Kunstig intelligens: en systematisk oversikt over risikobildet
I dette notatet kartlegger vi risiko forbundet med kunstig intelligens (KI) og foreslår løsninger. Målet er å danne grunnlag for en mer informert samtale om hvordan Norge kan bidra til å redusere risikoene og utnytte potensialet som ligger i teknologien.

KI-generert illustrasjon fra Midjourney
Hovedmomenter
I dette notatet kartlegger vi risiko forbundet med kunstig intelligens (KI) og foreslår løsninger. Målet er å danne grunnlag for en mer informert samtale om hvordan Norge kan bidra til å redusere risikoene og utnytte potensialet som ligger i teknologien.
Risikoene kan deles i tre kategorier:
• Strukturelle problemer: KI kan skape systematisk diskriminering av utsatte grupper, økonomiske omstillingsutfordringer, utfordre demokrati og tillit, samt forårsake destabiliserende kappløpsdynamikk mellom stater og selskaper.
• Misbruksrisiko: KI kan senke terskelen for at ondsinnede aktører gjennomfører avanserte cyberangrep eller utvikler kjemiske eller biologiske våpen. Det kan også styrke stater og selskapers evne til å overvåke og manipulere enkeltpersoner og demokratiske prosesser.
• Ulykkesrisiko: KI kan øke risikoen for alvorlige ulykker ved bruk i kritisk infrastruktur, autonome våpen og atomvåpen-systemer.
Alle risikoene vil øke med kraftigere KI. Vi trenger at myndigheter, forskere og selskaper legger ned en ekstraordinær innsats for å løse en rekke tekniske og regulatoriske problemer før modellene blir mer kapable. Dette notatet peker ut en vei framover for denne dugnaden.
Mer fra Langsikt

Sikker KI krever mer enn forskning
Norge trenger et statlig organ som kan koordinere KI-sikkerhetsarbeidet.
.png)
Noen må teste KI-modellene Norge gjør seg avhengig av
Norge henger etter i arbeidet med å trygge kunstig intelligens. Vi foreslår et nasjonalt sikkerhetsorgan.

Nå kommer drittifiseringen til KI
ChatGPT gir deg nå spesialtilpasset reklame når du spør om livsråd. Velkommen til drittifiseringen av KI.
Se alle våre publikasjoner her
