24. desember 2025

Fra "Dødt Internett" til "Zombie-apokalypse": Hvordan KI endrer nettet for alltid

kunstig intelligens dead internet theory kildekritikk generativ AI teknologi

Internett, slik vi kjenner det, er i ferd med å gjennomgå en fundamental endring. Der vi tidligere navigerte i et hav av menneskeskapt innhold, står vi nå overfor en flodbølge av syntetisk tekst, bilder og video. En nylig analyse fra Live Science løfter frem en urovekkende metafor: Nettet blir ikke en spøkelsesby, men snarere en «zombie-apokalypse».

For oss i TenkeMaskin.no er dette en utvikling som krever nøktern analyse. Hva skjer med informasjonstilliten når algoritmene ikke bare kuraterer innholdet vi ser, men også produserer det?

Dødt Internett-teorien: Fra konspirasjon til virkelighet?

Begrepet «Dead Internet Theory» oppstod opprinnelig som en konspirasjonsteori på diverse nettforum for noen år siden. Teorien hevdet at storparten av internett allerede var overtatt av boter styrt av myndigheter eller selskaper for å manipulere befolkningen. Selv om den opprinnelige teorien var overdrevet, har fremveksten av generativ kunstig intelligens (KI) gitt konseptet ny, og mer faktabasert, aktualitet.

I artikkelen fra Live Science påpekes det at vi beveger oss mot et scenario der boter snakker med boter. Et eksempel er Facebook-strømmer fylt med KI-genererte bilder (som den bisarre «Shrimp Jesus»-trenden) der tusenvis av kommentarer som «Amen» og «God bless» genereres av andre boter for å drive engasjement.

«Det blir ikke så mye en spøkelsesby som en zombie-apokalypse.» – Jake Renzella, University of New South Wales (via Live Science).

Dette skaper et økosystem av støy. For norske bedrifter og forbrukere betyr dette at det blir stadig vanskeligere å skille mellom ekte kundeanmeldelser, debattinnlegg og rent algoritmisk støy designet for å manipulere søkemotorer (SEO).

Faren for «Model Collapse»

En av de mest alvorlige tekniske konsekvensene av denne utviklingen er det forskere kaller «Model Collapse» (modellkollaps). Store språkmodeller (LLM-er) som GPT-4 og Claude er trent på enorme mengder data fra det «gamle» internettet – altså tekst skrevet av mennesker.

Når nettet nå fylles med KI-generert innhold, risikerer fremtidige modeller å bli trent på data produsert av deres forgjengere. En studie publisert i det prestisjetunge tidsskriftet Nature viser at dette kan føre til en irreversibel degenerering av modellene. De mister nyanser, glemmer sjeldnere konsepter og produserer til slutt bare gjennomsnittlig, innholdsløst oppgulp. Dette fenomenet sammenlignes ofte med innavl; uten nytt, friskt «DNA» (menneskeskapt data), blir avkommet svakere.

Hva betyr dette for Norge?

Selv om mye av forskningen fokuserer på engelsk innhold, er Norge i en særstilling, og slett ikke immun mot konsekvensene:

  • Språklig utvanning: Norsk er et lite språk i global sammenheng. Når nettet oversvømmes av automatisk oversatt innhold av lav kvalitet (ofte kalt «AI slop»), kan det forurense datasett som brukes til å trene norske språkmodeller. Dette truer kvaliteten på nynorsk og bokmål i digitale verktøy.
  • Tillitssamfunnet under press: Norge har høy tillit til medier og myndigheter. En inflasjon av syntetisk innhold kan utnyttes til desinformasjonskampanjer, spesielt i forkant av valg. Medietilsynet har allerede advart om behovet for økt kildekritikk.
  • Søkemotor-problematikken: Mange nordmenn opplever allerede at Google-søk gir dårligere resultater, fylt med KI-genererte nettsider som er optimalisert for klikk, men som mangler substans.

Autentisering som løsning

Hvordan løser vi dette? Eksperter peker på at fremtidens internett sannsynligvis vil kreve strengere former for autentisering. Vi kan se en bevegelse mot et «todelt internett»:

  1. Det åpne havet: Et kaotisk rom fylt med syntetisk innhold, boter og lavkvalitetsinformasjon.
  2. De lukkede rommene: Betalingsmurer, verifiserte samfunn (som Discord-servere eller Slack-grupper) og plattformer som krever digital ID (som BankID i Norge) for å bevise at du er et menneske.

Teknologier som C2PA (Coalition for Content Provenance and Authenticity), som legger inn digitale vannmerker i innhold for å vise opprinnelse, blir stadig viktigere. Både OpenAI, Microsoft og Adobe støtter denne standarden.

Konklusjon: En ny digital kildekritikk

Zombie-apokalypsen på internett er ikke nødvendigvis slutten på nettet, men det markerer slutten på den naive æraen. For oss i TenkeMaskin.no er konklusjonen klar: Verdien av verifisert, menneskeskapt journalistikk og analyse vil øke i takt med støyen. Som brukere må vi utvikle en ny form for digital intuisjon – en evne til å gjenkjenne det som mangler en menneskelig sjel.

Kilder og videre lesning

KI ◈