21. februar 2026

Rapport: OpenAI-ansatte slo alarm om kanadisk terrorsiktet måneder før angrep

OpenAI ChatGPT Sikkerhet Terrorisme Canada KI-etikk Overvåkning

En ny rapport fra Wall Street Journal kaster lys over et kritisk dilemma i skjæringspunktet mellom kunstig intelligens og samfunnssikkerhet. Ifølge avisen hadde ansatte hos KI-giganten OpenAI identifisert og flagget urovekkende aktivitet fra en brukerkonto tilhørende en mann som nå er siktet for skyting og brannstiftelse i Canada. Varslene skal ha blitt utløst flere måneder før hendelsene fant sted.

Saken reiser alvorlige spørsmål om teknologiselskapers ansvar for å rapportere potensielle trusler til myndighetene, og hvor grensen går mellom personvern og plikten til å avverge vold.

Varslet internt, men ikke til politiet

Ifølge dokumenter og kilder Wall Street Journal har fått tilgang til, oppdaget sikkerhetsteamet hos OpenAI at en bruker stilte ChatGPT inngående spørsmål om metoder for å fremstille eksplosiver og gjennomføre angrep. Brukeren skal senere ha blitt identifisert som den mistenkte i en rekke angrep mot jødiske institusjoner i Canada.

Til tross for at de interne varslingssystemene fungerte – de ansatte markerte innholdet som brudd på selskapets retningslinjer – ble informasjonen værende internt. Det ser ikke ut til at det eksisterte en automatisk eller etablert prosedyre for å eskalere denne typen spesifikke trusler til politimyndigheter på det tidspunktet, med mindre det ble vurdert som en umiddelbar og akutt fare.

"Dette illustrerer gapet mellom å moderere innhold for å beskytte merkevaren, og å overvåke innhold for å beskytte samfunnet."

Hva spurte den mistenkte om?

Rapporten indikerer at den mistenkte brukte språkmodellen til å planlegge logistikk og innhente teknisk informasjon. Selv om ChatGPT har innebygde sperrer (såkalte "guardrails") som skal nekte å svare på spørsmål om hvordan man lager bomber eller skader andre, viser saken at ondsinnede aktører stadig forsøker å omgå disse sperrene gjennom såkalt "jailbreaking" eller ved å stille hypotetiske spørsmål.

Det er verdt å merke seg at OpenAI har stengt kontoen til den mistenkte, men kritikere peker på at reaksjonen kom for sent i forhold til å forhindre de faktiske handlingene.

Et dilemma for teknologigigantene

Denne saken setter fingeren på en av de største utfordringene for selskaper som OpenAI, Google og Microsoft:

  • Personvern vs. Overvåkning: Skal KI-selskaper fungere som en forlenget arm av politiet? Hvis terskelen for å rapportere til myndighetene blir for lav, kan det true brukernes personvern og tillit.
  • Vurdering av intensjon: Det kan være vanskelig for en moderator (eller en algoritme) å skille mellom en forfatter som gjør research til en krimroman, og en person som planlegger et faktisk angrep.
  • Skalering: Med hundrevis av millioner brukere genereres det enorme mengder data. Å manuelt vurdere alle potensielle trusler med høy nok presisjon til å involvere politiet, er en enorm ressurskrevende oppgave.

Norsk perspektiv: Relevans for PST og lovgivning

For norske forhold er denne saken høyst relevant. Politiets sikkerhetstjeneste (PST) har i sine trusselvurderinger påpekt hvordan teknologi kan senke terskelen for terrorplanlegging ved å gjøre kunnskap lettere tilgjengelig.

Norge forbereder seg nå på å implementere EUs AI Act (KI-forordningen). Denne lovgivningen stiller strenge krav til systemer med "høy risiko". Selv om generelle språkmodeller (GPAI) har egne regler, vil denne typen hendelser sannsynligvis føre til debatt om strengere rapporteringsplikt for tilbydere av KI-tjenester i Norge og Europa.

Datatilsynet i Norge har også vært tydelige på at innebygd personvern er essensielt, men saken fra Canada viser at vi må finne en balanse der liv og helse kan prioriteres uten at vi ender opp med et totalovervåkingssamfunn.

Konklusjon

At OpenAI-ansatte faktisk oppdaget trusselen måneder i forveien, viser at de tekniske deteksjonssystemene har blitt bedre. Svikten ligger i de menneskelige og prosessuelle rutinene for hva som gjøres med denne informasjonen. For at KI skal være en trygg del av samfunnsinfrastrukturen, må bransjen utvikle tydeligere protokoller for samarbeid med politimyndigheter når røde linjer krysses.

Kilder og videre lesning

KI ◈