12. mars 2026

Algoritmene som planlegger ferien din, peker nå ut militære bombemål

Kunstig intelligens Militær teknologi Etikk Maskinlæring USA Flerbruksteknologi

Når du åpner ChatGPT, Claude eller andre moderne KI-assistenter for å be om den perfekte reiseruten for en ukes ferie i Toscana, benytter du deg av avansert mønstergjenkjenning og nevrale nettverk. Du mater maskinen med en «prompt», og sekunder senere får du et ferdig optimalisert resultat basert på enorme mengder data. Det de færreste tenker over i hverdagen, er at nøyaktig den samme underliggende teknologien nå revolusjonerer moderne krigføring.

Ifølge internasjonale rapporter, inkludert dybdeanalyser fra den nederlandske avisen Algemeen Dagblad, har integrasjonen av kunstig intelligens (KI) i militære operasjoner nådd et kritisk vendepunkt. I nyere konflikter, og spesielt i det amerikanske forsvarets (Pentagon) strategier, brukes KI-systemer til å aggregere data og generere potensielle bombemål i et tempo som var utenkelig for bare få år siden. Overskrifter om at systemer kan identifisere «tusen bombemål på 24 timer med én prompt» tvinger frem en akutt global debatt om teknologiens sanne natur.

Fra forbruker-KI til militær målidentifikasjon

Det er en utbredt misforståelse at militæret utelukkende opererer med isolert, hyperavansert og hemmeligstemplet «superteknologi» utviklet i lukkede laboratorier. Sannheten er at dagens militære KI i stor grad bygger på kommersiell hyllevare (COTS - Commercial Off-The-Shelf) og de eksakt samme grunnleggende algoritmene som driver våre sivile applikasjoner.

Når det amerikanske forsvaret, gjennom initiativer som Project Maven, analyserer enorme mengder satellittbilder, dronevideoer, radarspor og avlyttet kommunikasjon, bruker de maskinlæringsmodeller og store språkmodeller (LLMs). Teknologiselskaper som Microsoft, Google, Palantir og Amazon leverer ofte skyinfrastrukturen og grunnmodellene. Den samme serverparken som håndterer din reiseplanlegger, kan i teorien prosessere data som leder til et målrettet droneangrep.

Den teknologiske broen: Hvordan fungerer det i praksis?

Kjernen i denne flerbruksteknologien (dual-use) er evnen til å behandle, filtrere og finne mønstre i ustrukturerte data. For ferien din handler det om å koble flytider, hotellanmeldelser, geografiske avstander og værdata for å finne den optimale løsningen. For en etterretningsoffiser i Pentagon handler det om å koble bevegelsesmønstre fra mobiltelefoner, varmesignaturer fra bygninger og logistikkdata for å identifisere en fiendtlig kommandopost.

«Forskjellen mellom å optimalisere en sivil leveringsrute og å identifisere en militær forsyningslinje som et strategisk mål, ligger ikke i selve matematikken eller kodingen, men utelukkende i dataene modellen fôres med og formålet med analysen.»

Når en offiser mater systemet med en «prompt» for å finne avvik i et bestemt geografisk område i Midtøsten, bruker KI-en de samme logiske slutningsmekanismene som når du ber om en liste over barnevennlige hoteller med basseng. Hastigheten og presisjonen er den samme, men konsekvensene er fundamentalt forskjellige.

De etiske utfordringene og «Black Box»-problematikken

Når kunstig intelligens akselererer krigføring til et punkt hvor tusenvis av mål kan genereres på et døgn, oppstår det dype etiske og folkerettslige dilemmaer. TenkeMaskin.no har identifisert tre hovedutfordringer i denne utviklingen:

  • Ansvarspulverisering: Hvem har det juridiske og moralske ansvaret hvis algoritmen hallusinerer eller feiltolker data, og sivile liv går tapt? Er det programmereren hos et sivilt teknologiselskap, offiseren som godkjente målet, eller systemet selv?
  • Illusjonen av menneskelig kontroll: Militære doktriner, inkludert de i USA og NATO, krever at et menneske skal være «in the loop» (ta den endelige avgjørelsen før maktbruk). Men når en KI presenterer hundrevis av mål i timen, reduseres menneskets rolle ofte til et overfladisk gummistempel. Dette fenomenet, kjent som automatiseringsskjevhet (automation bias), betyr at mennesker har en tendens til å stole blindt på maskinens anbefalinger.
  • Transparens: Mange dype nevrale nettverk fungerer som «svarte bokser». Selv utviklerne kan slite med å forklare nøyaktig hvorfor KI-en konkluderte med at en spesifikk bygning utgjorde et militært mål. I krigens folkerett er proporsjonalitet og distinksjon (skillet mellom stridende og sivile) ufravikelige krav. En svart boks kan ikke vitne i en krigsforbryterdomstol.

Et norsk perspektiv: Forsvar og investeringer

Denne internasjonale utviklingen har direkte konsekvenser for Norge. På den ene siden forsker Forsvarets forskningsinstitutt (FFI) aktivt på hvordan Norge kan og bør implementere KI i egne forsvarssystemer. I et moderne trusselbilde er det en utbredt oppfatning at man ikke kan forsvare seg mot KI-drevne angrep uten selv å besitte tilsvarende defensiv teknologi.

På den andre siden har Norge et betydelig økonomisk engasjement gjennom Statens pensjonsfond utland (Oljefondet). Fondet er tungt investert i de store amerikanske teknologiselskapene som nå bygger broen mellom sivil KI og militær anvendelse. Dette reiser en kompleks nasjonal debatt om etiske retningslinjer: Kan vi profittere på selskaper som utvikler algoritmer for ferieplanlegging, når vi vet at de samme algoritmene selges til stormakter for å effektivisere krigføring?

Veien videre: Regulering av det uregulerbare?

Kunstig intelligens er ikke et våpen i tradisjonell forstand; det er en muliggjørende teknologi, på linje med oppfinnelsen av elektrisitet eller internett. At den eksakt samme teknologien hjelper oss med å planlegge hverdagen vår og samtidig optimaliserer moderne krigføring, understreker et presserende behov for robuste internasjonale avtaler.

Nylige initiativer, som erklæringen fra REAIM-toppmøtet (Responsible AI in the Military Domain), forsøker å etablere globale normer for ansvarlig bruk. Likevel gjenstår det å se om verdens stormakter er genuint villige til å legge begrensninger på en teknologi som gir dem en så massiv, asymmetrisk strategisk fordel på slagmarken.

Kilder og videre lesning

KI ◈