Kronikk
|
27.03.2026

Strümkes hybris

Først publisert i:
Morgenbladet

Det Inga Strümke kaller «futurisme» i KI-debatten, er nødvendig beredskap mot en mulig fremtid.

Last ned

KI-generert illustrasjon fra Gemini.

Hovedmomenter

1

2

3

4

Innhold

I forrige ukes Morgenbladet trekker Inga Strümke opp en klar demarkasjonslinje mellom vitenskap og tomme spekulasjoner. Langsikts advarsler om at vi innen det neste tiåret vil kunne få svært kapable og farlige KI-systemer, avfeier hun som uvitenskapelig futurisme.

Det høres ut som Strümke oppfordrer til faglig ydmykhet, men det å blankt avfeie alvorlig risiko fra avanserte KI-systemer, er et uttrykk for hybris, ikke ydmykhet.

Synet står nemlig i klar motsetning til noen av verdens aller fremste KI-eksperter. Nobelprisvinner Geoffrey Hinton og Yoshua Bengio advarer begge mot katastrofale konsekvenser fra avansert KI. Bengio er verdens mest siterte forsker og forfatter av International AI Safety Report. Rapporten gir et betydelig empirisk og vitenskapelig grunnlag for hypotesen om at vi raskt kan få ekstremt kapable og farlige KI-systemer.

Å kreve at beslutningstagere skal stole mer på hennes vurdering enn ekspertene som grunnla forskningsparadigmet som moderne KI utvikles innenfor, faller på sin egen urimelighet.

Strümke er heller ingen troverdig kilde på hvordan de ledende KI-modellene vil utvikle seg. Så sent som i fjor skrev hun i Aftenposten at språkmodeller er en hype som bare fremstår som lovende fordi vi tilskriver bevissthet til systemer som kan kommunisere med oss. Ett år etter ser vi at de samme modellene løser uløste matematiske problemer og skriver nær 100 prosent av koden i de ledende KI-selskapene. Modellene er allerede på full fart inn i forskningen, som Tore Wig har beskrevet godt i denne avisen.

En mer subtil form for hybris kommer til uttrykk i viljen til å avfeie fremtidsscenarioer som usannsynlige. Det er uklokt gitt hvor mye som har skjedd på få år. Filmen Her fra 2013 viser en hypotetisk fremtid der mennesker snakker med og blir forelsket i sjarmerende og intelligente KI-systemer. I dag lever vi i den virkeligheten. Det bør mane til ydmykhet over hvor radikalt annerledes verden kan se ut om ti år.

Vitenskapshistorien er full av tilbakeviste påstander om hendelser som forskere mente var umulig eller futurisme. I 1933 kalte Ernest Rutherford, mannen som selv hadde splittet atomet, ideen om å utvinne energi fra atomkjerner for «moonshine». Dagen etter leste Leo Szilard om uttalelsen i avisen og fikk ideen om en kjernefysisk kjedereaksjon mens han ventet på grønt lys i et London-veikryss. Tolv år senere falt atombomben over Hiroshima.

I møte med en ukjent fremtid bør en ikke være skråsikker på hverken det en tror vil skje, eller det en tror ikke vil skje.

Betyr det at vi famler i blinde? Nei. Om vi benytter oss av ulike kunnskapskilder og anvender beslutningsrammeverk ment for å håndtere usikkerhet, kan vi bli mer beredt på det som kommer. En slik triangulering har gjort det mulig for oss å forutse flere av utviklingstrekkene de siste årene. For eksempel har vi, siden vi etablerte Langsikt i 2023, advart beslutningstagere om den agentiske revolusjonen som nå er på trappene.

Et stridsspørsmål er om en skal lytte til KI-selskapene når en forsøker å forstå teknologiutviklingen. Strümke advarer mot å låne retorikken fra selskapene som tjener penger på oppblåste forventninger om teknologiens fremtid.

Jeg er langt på vei enig med Strümke at vi må ta utsagn fra selskapene med en klype salt. Open AI-sjef Sam Altman er åpenbart ingen uavhengig eller etterrettelig kilde. Skal du forstå hvor teknologien er på vei, kan du likevel ikke ignorere all informasjon som kommer fra dem som er de fremste driverne av utviklingen.

Jobben til den som prøver å danne seg en best mulig forståelse av utviklingen og dens faremomenter, må innebære å vekte innsideinformasjonen fra selskapenes ansatte med utenforblikket til uavhengige eksperter. I denne krevende, men nødvendige, øvelsen hjelper det å ha teknisk kompetanse, men slik kompetanse må suppleres med innsikter fra andre fagfelt, som økonomi, statsvitenskap og filosofi, for å nevne noen.

Å uttale seg om teknologiutviklingen som ikke-teknolog diskvalifiserer en ikke fra å komme med gode analyser. Det burde Strümke være enig i, hun som uttaler seg hyppig om hva som er fornuftige forretningsstrategier, god lovgivning og hvilke samfunnskonsekvenser KI vil få, med sin bakgrunn i fysikk og maskinlæring.

Jeg vil advare norske beslutningstagere mot å følge Strümke i å forkaste seriøse framtidsscenarier som useriøs futurisme. De har et ansvar for å sikre den norske befolkningen mot alle store trusler – selv de truslene frittalende norske KI-forskere ikke forstår seg på.

Last ned
Vi bruker cookies for å gi deg en bedre brukeropplevelse. Ved å trykke "Aksepter", samtykker du til vår bruk av cookies. Les mer i vår Personvernerklæring.