Utspill

Enighet om AI Act - Frankrike, Tyskland og Italia gir etter

Jacob Wulff Wold
Først publisert i:

I desember kom EU-politikere til en politisk enighet om de viktigste stridsspørsmålene i AI Act (KI-forordningen), EUs flaggskip for å regulere kunstig intelligens. Etter en måned med tekniske avklaringer ble det formell enighet på fredag.

Last ned

KI-generert illustrasjon fra Midjourney

Hovedmomenter

1

2

3

4

Innhold

I desember kom EU-politikere til en politisk enighet om de viktigste stridsspørsmålene i AI Act (KI-forordningen), EUs flaggskip for å regulere kunstig intelligens. Etter en måned med tekniske avklaringer ble det formell enighet på fredag

Frankrike, Tyskland og Italia, har jobbet imot lovgivningen hele veien, etter lobbypress fra sine ledende AI selskap. De ønsket mildere regler for kraftige AI-modeller. Etter voksende motstand både internt og fra de andre medlemslandene snudde Tyskland forrige uke, og Italia og Frankrike så seg til slutt nødt til å følge etter. De store tech-selskapene vil kanskje fortsette å se etter muligheter til å vanne ut lovgivningen frem til den endelig vedtas av EU-parlamentet i april, men i denne omgang må de innse nederlaget.

- En seier for både sikkerhet og innovasjon for kunstig intelligens i Europa. Med høyere krav til de som lager de kraftigste modellene blir det større regulatorisk byrde på de største aktørene som har best evne og ressurser til å redusere risikoen. Samtidig blir det enklere for både små og store aktører å ta i bruk teknologien på en trygg måte, sier Jacob Wulff Wold, rådgiver i Langsikt, om utviklingen. 

- Fremover blir det spennende å se hvordan lovverket vil fungere i praksis. Mye er høynivå prinsipper mer enn konkrete krav.

I AI Act klassifiseres KI-systemer i utgangspunktet etter bruksområde og faller i fire kategorier: uakseptabel, høy, begrenset og minimal risiko. Reguleringen skal stå i stil med risikoen, systemer med uakseptabel risiko er derfor forbudt.


(figur fra teknologirådet)

De fire områdene var først definert kun etter bruksområdet, men med fremveksten av generelle modeller som den i chatGPT, måtte dette oppdateres. Alle generelle modeller må dokumentere hvordan de er laget, og de kraftigste generelle systemene blir klassifisert som å utgjøre en systemrisiko, med med lignende krav som høyrisiko bruksområder.

Det er lenge til lovgivningen trer i kraft i Norge, men i Europa blir områder med uakseptabel risiko forbudt allerede i løpet av året, og krav til nye AI modeller blir gjeldende i våren 2025.

Last ned