Det britiske sikkerhetsinstituttet for kunstig intelligens (UK AI Safety Institute, AISI) har i det stille fått tidlig tilgang til en uutgitt, avansert språkmodell fra OpenAI. Modellen, som i teknologibransjen bredt spekuleres å være neste generasjons «GPT-5» eller en betydelig oppgradering av GPT-4, gjennomgår nå omfattende sikkerhetstesting før en eventuell offentlig lansering. Dette bekrefter at de store aktørene nå tar uavhengig sikkerhetstesting på alvor.
Dette markerer et avgjørende øyeblikk for internasjonal KI-styring. For første gang ser vi at et statlig organ får dyp tilgang til en ledende aktørs grensesprengende modell (såkalt frontier model) før den slippes på markedet. Hos TenkeMaskin.no anser vi dette som et viktig paradigmeskifte: Bransjen beveger seg gradvis vekk fra «lanser først, fiks etterpå»-mentaliteten, til en mer moden tilnærming der samfunnssikkerhet integreres i selve lanseringssyklusen.
Fra frivillige løfter til konkret handling
Under Bletchley Park-toppmøtet i fjor høst, lovet ledende KI-selskaper, inkludert OpenAI, Google og Anthropic, å la myndigheter teste deres kraftigste modeller for nasjonale sikkerhetsrisikoer. Tilgangen UK AISI nå har fått, er det første store beviset på at denne avtalen settes ut i livet.
«Vi mener det er avgjørende at uavhengige eksperter får vurdere kapabilitetene til våre mest avanserte systemer før de integreres i samfunnskritisk infrastruktur,» har representanter fra OpenAI tidligere uttalt om instituttets rolle.
UK AISI opererer med en unik mandat. I motsetning til tradisjonelle byråkratiske tilsynsorganer, er instituttet bemannet med noen av verdens fremste eksperter innen maskinlæring, cybersikkerhet og bioteknologi. Dette gjør dem i stand til å stressteste modellene på et teknisk nivå som tidligere kun var forbeholdt selskapenes egne ingeniører.
Hva testes egentlig i den nye modellen?
Når britiske myndigheter nå evaluerer det som antas å være GPT-5, er det ikke stavekontroll eller evnen til å skrive dikt som står i fokus. UK AISI gjennomfører såkalt red teaming – målrettede angrep mot systemet for å avdekke sårbarheter – med spesielt fokus på fire kjerneområder:
- Kjemisk, biologisk, radiologisk og nukleær (CBRN) risiko: Kan modellen hjelpe ondsinnede aktører, for eksempel terrororganisasjoner, med å syntetisere farlige patogener eller utvikle våpen?
- Cybersikkerhet: Har modellen evnen til å autonomt finne og utnytte ukjente sårbarheter (zero-days) i kritisk digital infrastruktur?
- Autonomi og agens: Kan systemet operere uavhengig over lengre tid, replikere seg selv, eller potensielt unngå å bli slått av?
- Samfunnsmessige konsekvenser: Hvordan håndterer modellen generering av overbevisende desinformasjon og dype forfalskninger (deepfakes) i stor skala?
Dersom instituttet avdekker alvorlige mangler i sikkerhetsbarrierene (guardrails), forventes det at OpenAI må utsette lanseringen inntil disse er utbedret.
Et signal til Norge og Europa
Mens Storbritannia velger en smidig, institutt-drevet tilnærming for å evaluere spesifikke grensesprengende modeller, ruller EU (og dermed Norge gjennom EØS-avtalen) ut sin omfattende KI-forordning (AI Act). For norske virksomheter og myndigheter, spesielt Digitaliseringsdirektoratet og Datatilsynet, gir den britiske testmodellen verdifull innsikt i hvordan man kan operere i skjæringspunktet mellom teknologisk innovasjon og statlig kontroll.
Norges nylig oppdaterte nasjonale digitaliseringsstrategi peker tydelig på behovet for trygg og etisk bruk av kunstig intelligens. Utfordringen for norske myndigheter blir å bygge opp tilstrekkelig teknisk kompetanse til å kunne håndheve det nye europeiske regelverket. Erfaringene og metodikken som UK AISI nå utvikler gjennom testingen av OpenAIs modell, vil sannsynligvis bli en gullstandard som det europeiske KI-kontoret (AI Office) og norske tilsynsmyndigheter vil lene seg tungt på i årene som kommer.
Spekulasjonene rundt «GPT-5»
OpenAI har holdt kortene tett til brystet når det gjelder navnet, arkitekturen og lanseringsdatoen for sin neste flaggskipmodell. Sam Altman, toppsjef i OpenAI, har konsekvent uttalt at selskapet vil ta seg god tid til sikkerhetstesting før nye, store modeller slippes. At britiske myndigheter nå evaluerer modellen, antyder at utviklingen har nådd et modent og funksjonelt stadium.
For utviklere og bedrifter i Norge betyr dette at en ny generasjon KI-verktøy nærmer seg, men at ventetiden er et resultat av nødvendige sikkerhetsvurderinger. Når den nye modellen til slutt lanseres, vil den sannsynligvis være den mest gjennomtestede kommersielle språkmodellen i historien.