«Historically, AI researchers’ predictions about progress in AI abilities have been pretty bad. We don’t really have principles that describe which kinds of tasks are easy for AI and which ones are hard»
Debatten om kunstig intelligens i høyere utdanning er i ferd med å dele seg i to spor: ett der teknologioptimismen får dominere, og ett der kritiske perspektiver forsøker å holde fast ved forskningens og demokratiets grunnleggende prinsipper.
Et godt bilde på teknologioptimismen, og motstand mot mer kritiske røster, er Anders Eidsvik sitt innlegg på Altinget.no. Her hevder han at førsteamanuensis Inga Strümkes kritiske røst i KI-debatten er en bjørnetjeneste.
Eidsviks argument bygger på et premiss om at KI-utviklingen er så uforutsigbar og rask at vi må være åpne for alt – også det vi ikke forstår. Men dette er en farlig form for pragmatisme som overser det enkle vitenskapelige faktum at datamaskiner fortsatt er datamaskiner.
Datamaskiner er stadig vekk basert på digitale, binære «byggesteiner», ikke mystisk og uforklarlig magi. Siden 2022 har vi fått flere og mer spesialiserte verktøy (akselleratorer, minnetyper, DPUs, kjøleløsninger) for å møte behovene skapt av store språkmodeller, men disse endringene er forbedringer av samme grunnleggende prinsipp. Datamaskiner er fortsatt digitale maskiner som bruker binær logikk (0 og 1) i form av elektriske tilstander og begrensningene som følger av fysikk, strøm, kjøling og nettverk er ikke på mystisk vis plutselig opphevet.
Dette betyr at vi stadig er låst til de samme fysiske realitetene som vi har vært i flere tiår. OpenAI, Microsoft og andre kommersielle aktører har ikke funnet opp hjulet på nytt; de har bare bygget en ekstremt spesialisert versjon av det. Den «magien» vi opplever er et resultat av manglende kunnskap om hvordan datamaskiner faktisk funger, rå datakraft og sofistikert matematikk, ikke et brudd med klassisk datateknologi.
Som informasjonsviter i den samfunnsinformatiske tradisjon etter Rob Kling og Tom Jewett, ser jeg teknologi ikke som nøytral, men som sosialt formet og politisk ladet. «KI» er ikke bare et sekkebegrep som omfatter en rekke ulike digitale system, men også en kulturell kraft som gir ly til kommersielle aktørers påvirkning av hvordan vi lærer, vurderer og forstår verden.
Eidsvik etterlyser fleksibilitet. Jeg etterlyser motstandskraft. Vi må ikke bøye oss for teknologiens tempo, men stille de vanskelige spørsmålene: Hvem tjener på denne utviklingen? Hva slags kunnskap fremmer den? Og hvilke verdier taper vi?
Universitetenes jobb er ikke å tilrettelegge for ureflektert bruk av store språkmodeller i form av samtaleroboter, men å utdanne borgere med evne til kritisk refleksjon. Det innebærer å utfordre løsningstro, avkle mediefantasier og insistere på forskningens langsomme, men nødvendige tempo.
Strümkes kritikk er ikke en bjørnetjeneste. Den er en demokratisk nødvendighet.
Og initiativet fra en trio ved UiT Norges arktiske universitet – Maria Danielsen, Knut Ørke og Holger Pötzsch – med mål om å få KI-debatten i høyere utdanning inn på et nytt spor, er også en viktig del av en demokratiske prosess mot en større forståelse for fordeler og ulemper ved de digitale system som nå kalles «KI».
Initiativtakerne hevder at KI‑debatten i norsk høyere utdanning er blitt for ensidig optimistisk og at kritiske stemmer ikke slipper til. Forskerne etterlyser en ny retning, der etikk, demokrati, sikkerhet og faglig kvalitet står i sentrum.
Jeg er kanskje ikke uten videre enig i at kritiske stemmer ikke slipper til, selv om det i media (og til dels også internt i akademia) først og fremst fokuseres på tvilsomme påstander om hva samtaleroboter rent faktisk er i stand til og uvitenskapelige fabuleringer om en mulig Isaac Asimov-lignende fremtid.
Men vi trenger en kritisk og faglig debatt om sekkebegrepet «KI», og ikke minst om de konkrete (og begrensede) verktøy som siden 2022 har gitt støtet til en teknologisk utvikling som svekker vår individuelle dømmekraft, devaluerer den politiske og kulturelle verdien av selvstendig menneskelig refleksjon og truer demokratiets evne til å skille mellom velfundert kunnskap og glattformulert uvitenhet. Derfor har jeg signert oppropet presentert i Khrono 30. mars 2026.
There tend to be three AI camps. 1) AI is the greatest thing since sliced bread and will transform the world. 2) AI is the spawn of the Devil and will destroy civilization as we know it. And 3) «Write an A-Level paper on the themes in Shakespeare’s Romeo and Juliet.» I propose a fourth: AI is now as good as it’s going to get, and that’s neither as good nor as bad as its fans and haters think, and you’re still not going to get an A on your report. You see, now that people have been using AI for everything and anything, they’re beginning to realize that its results, while fast and sometimes useful, tend to be mediocre
Jeg anerkjenner store språkmodeller i form av samtaleroboter som kraftige, men begrensede verktøy for tekstgenerering og informasjonsinnhenting. Jeg anerkjenner dem ikke som intelligente aktører. Mitt ståsted er først og fremst forankret i samfunnsinformatikken, slik Rob Kling og Tom Jewett praktiserte dette fagområdet, og derigjennom rotfestet i internasjonal kritisk KI-tenkning. Jeg bekjenner meg altså til en tradisjon som setter menneskelig dømmekraft, læring og samfunnsansvar foran teknologisk begeistring.
Hvorfor jeg er skeptisk til sekkebegrepet «KI»
«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.» – Bjørn Stærk, 2023 (2)
De siste årene har jeg brukt mye tid på å teste samtaleroboter som ChatGPT, Copilot og lignende system – ikke bare som nysgjerrig teknolog, men som undervisningsforsker og samfunnsinformatiker. Erfaringen er ganske klar: Det vi i dag kaller «KI» i offentligheten, er først og fremst statistiske tekstgeneratorer. Sekkebegrepet «KI», slik det benyttes i dagens debatt, skaper mer forvirring enn innsikt.
Når jeg sier at samtaleroboter av typen ChatGPT ikke er eksempler på kunstig intelligens, er det ikke fordi jeg vil være kontrær for artighets skyld. Det handler om noe langt mer grunnleggende; ordene vi bruker, former forventningene våre. Kaller vi statistiske tekstgeneratorer for «intelligente», inviterer vi til misforståelser – både faglig, politisk og pedagogisk.
Samtaleroboter er kraftige verktøy, men ikke tenkende aktører som utfordrer etablerte pedagogiske praksiser
«Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten»
Samtaleroboter er imponerende på én ting; de er ekstremt gode til å beregne hvilke ord som sannsynligvis passer etter hverandre, gitt enorme mengder treningsdata. De er derimot ute av stand til å forstå, vurdere eller reflektere.
For meg er det derfor mer presist å omtale disse systemene som:
Samtaleroboter – fordi de simulerer dialog
Statistiske tekstgeneratorer – fordi de i bunn og grunn driver med sannsynlighetsberegning over tekst
Disse systemene
analyserer ikke oppgaven slik en student gjør
vurderer ikke kildenes kvalitet
resonnerer ikke over konsekvenser eller logisk konsistens
har ingen forståelse av sannhet
«Unlike hallucinations, which introduce false-hoods, sycophancy is a bias in the selection of the data people see. When AI systems are trained to be helpful, they may inadvertently prioritize data that validates the user’s narrative over data that gets them closer to the truth.»
– Rafael M. Batista, PhD and Professor Thomas L. Griffiths, 2026 (4)
Så når vi omtaler disse digitale systemene som «intelligente», er det lett å glemme at alt de gjør, er resultat av menneskelig programmering, menneskelig data og menneskelig tolkning.
«Intelligensen» er altså kun en illusjon skapt av statistiske mønstre, der det verken forekommer analyser, vurdering eller faktaforståelse. Og når samtaleroboter produserer tekster som forsterke brukerens antakelser, fordommer og ønskedrømmer så er dette ikke resultat av en villet handling basert på kognitive prosesser. Det er ren statistikk.
Derfor bør vi møte denne spesifikke teknologien med nøkternhet i akademia og bruke den som et begrenset verktøy der det gir konkret verdi, samtidig som vi styrker oppgavedesign, veiledning og vurderingsformer som krever kritisk tenkning, faglig forankring og personlig erfaring. Med andre ord: anerkjenne nytten der den faktisk finnes, men ellers ha fokus på faglige krav, didaktikk og vurderingspraksis forankret i det fagområde vi har ansvaret for.
Slik jeg ser det, må det være den enkeltes undervisningsfilosofi som avgjør oppgavedesign, vurderingsform og hvorvidt samtaleroboter kan brukes som del av studentenes arbeid eller ikke, ikke uvitenskapelige fabuleringer fra KI-fantaster og kommersielle aktører.
Hva samtaleroboter faktisk klarer – og ikke klarer
Today’s large language models are phenomenal at pattern recognition. But they don’t truly understand causality. They don’t really know why A leads to B. They just predict the next token based on statistical correlations.
Når vi skal vurdere hva dataprogram, skapt og driftet av mennesker, kan eller ikke kan, må vi huske på følgende:
Datamaskiner er fortsatt datamaskiner. De er basert på digitale, binære «byggesteiner», ikke mystisk og uforklarlig magi. Siden 2022 har vi fått flere og mer spesialiserte verktøy (akselleratorer, minnetyper, DPUs, kjøleløsninger) for å møte behovene skapt av store språkmodeller, men disse endringene er forbedringer av samme grunnleggende prinsipp. Datamaskiner er fortsatt digitale maskiner som bruker binær logikk (0 og 1) i form av elektriske tilstander og begrensningene som følger av fysikk, strøm, kjøling og nettverk er ikke på mystisk vis plutselig opphevet.
Dette betyr at vi fortsatt er låst til de samme fysiske realitetene som vi har vært i flere tiår. OpenAI, Microsoft og andre kommersielle aktører har ikke funnet opp hjulet på nytt; de har bare bygget en ekstremt spesialisert versjon av det. Den «magien» vi opplever er et resultat av manglende kunnskap om hvordan datamaskiner faktisk funger, rå datakraft og sofistikert matematikk, ikke et brudd med klassisk datateknologi.
Dette utgangspunktet er styrende for min oppfatning av såkalt «KI» og det vi rent faktisk har fått tilgang på – samtaleroboter (som er hovedfokuset her, og i den pågående «KI»-debatten i akademia) og verktøy som genererer bilder, lyd og video basert på LLM‑teknologi.
Mine egne tester av samtalerobotenes evne til å jobbe med arbeidskrav i mine fagemner – basert på påstander om at disse verktøyene kunne skrive alt fra masteroppgaver til vitenskapelige artikler uansett brukerens kunnskapsnivå – , og internasjonal forskning, peker i samme retning:
På lavere nivå i Blooms taksonomi (reproduksjon, forklaring, oppsummering) kan samtaleroboter levere svar som ser brukbare ut.
På høyere nivå (analyse, tolkning, vurdering, kritisk refleksjon) faller de gjennom – ofte på spektakulært vis.
Måten KI kommer frem til svarene er at den opererer som slags midtpunkt eller gjennomsnitt av det som allerede sirkulerer av informasjon på internett. Nettopp derfor kan den ikke skape noe genuint nytt, men først og fremst reorganisere det som allerede finnes.
Derfor bruker jeg ikke KI til vurdering og karaktersetting. Et system som ikke forstår faglig kvalitet, ikke kan skille mellom ekte og falske kilder, og som ikke kan redegjøre for egen «tenkning», er etter mitt syn uegnet som vurderingsinstans. Det betyr ikke at verktøyene er ubrukelige, men at de må brukes som nettopp det – verktøy, ikke faglige sensorer.
Mitt internasjonale faglige slektskap
In the literal sense, the programmed computer understands what the car or the adding machine understand: namely, exactly nothing.
Som samfunnsinformatiker med fokus på Human‑Centric Security, med over 30 års erfaring med faglig og underholdningsmessig bruk av informasjonsteknologi – både som IT-sjef, gamer, underviser og undervisningsforsker – og med mer enn 20 års erfaring med studentaktiv og nettbasert undervisning, har jeg plassert meg i kretsen av nasjonale og internasjonale akademikere som er kritiske til hvordan begrepet «KI» brukes i offentligheten.
Jeg står altså ikke alene i mitt syn på at samtaleroboter ikke er strålende eksempler på «KI». Tvert imot befinner jeg meg i et ganske tydelig internasjonalt landskap av forskere og fagmiljøer som:
kritiserer hypen rundt «KI»
avmystifiserer LLM-er
insisterer på at vi må skille mellom statistisk mønstergjenkjenning og intelligens
Evgeny Morozov – som har pekt på at dagens «KI» i stor grad er basert på appropriasjon av menneskelig arbeid, og at det vi kaller «artificial» ofte er alt annet enn kunstig.
I utdanningsfeltet står jeg nær forskere som Neil Selwyn, Audrey WattersogJeffrey Bilbro, som har vist hvordan «revolusjonerende» læringsteknologi gang på gang ender som moderate verktøy – ofte med merarbeid og nye former for avhengighet, men uten den lovede læringsgevinsten.
Når jeg plasserer meg selv i dette internasjonale landskapet, er det fordi jeg kjenner meg igjen i tre felles kjennetegn:
Teknologirealisme: Verken demonisering eller ukritisk begeistring, men nøktern analyse av hva systemene faktisk gjør.
Begrepskritikk: Motstand mot å bruke «intelligens» om systemer som ikke forstår, ikke resonnerer og ikke har mål eller intensjoner.
Fokus på menneskelig læring og dømmekraft: Teknologi skal støtte, ikke erstatte, menneskelig tenkning – særlig i utdanning.
Hvorfor er det viktig med et kritisk blikk?
From a critical analytical perspective, the idea that human and machine intelligence can and should be compared is equally problematic because it creates a false equivalence between human decision-making and computer decision-making. This false equivalence can become the basis for a series of dubious practices, such as the replacement of (fallible) human judgement with (allegedly superior, but no less fallible) machine judgement.
– Cristobal Garibay-Petersen, Marta Lorimer and Bayar Menzat, 2026 (8)
I norsk utdanningsdebatt brukes «KI» nå om alt fra stavekontroll til samtaleroboter. Og i ulike styredokumenter ol. som skal danne grunnlag for bruk av digitale verktøy i høyere utdanning, ser vi altfor ofte påstander av typen «forventes å påvirke universitetets kjerneoppgaver». Men denne og lignende påstander forankres ikke i forskning, men i vage henvisninger til «debatten» eller til ulike mediehistorier.
Men universiteter skal ikke forankre sin politikk i vage og sprikende «debatter», men i forskning. Når såkalt «generativ KI» fremstilles som en uunngåelig revolusjon, er dette synsing ikke evidensbaserte fakta og et symptom på at vi mangler ikke bare et presist språk men en grunnleggende forståelse for teknologi.
For meg er dette ikke bare en faglig irritasjon, men et demokratisk spørsmål. Hvis vi ikke klarer å skille mellom:
verktøy som hjelper oss å skrive litt raskere, og
systemer som faktisk kan ta autonome beslutninger med reelle konsekvenser
– da gjør vi oss selv sårbare. Ikke for «den onde KI-en», men for mennesker og institusjoner som bruker teknologien til å styre, manipulere og effektivisere på måter vi ikke fullt ut forstår.
Oppsummert
That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.
Slik jeg ser det er det min jobb (og plikt) som teknolog og fagperson ved et universitet å
ikke omtale samtaleroboter som intelligente – men heller beskrive dem som det de er: statistiske tekstgeneratorer
bruke dem som pedagogiske case, ikke som fasit – særlig for å trene kritisk tenkning, kildekritikk og forståelse av hva teknologi kan og ikke kan
styrke teknologiforståelse og vitenskapelig allmenndannelse – slik at både studenter og beslutningstakere kan gjennomskue medieskapte fantasier
diskutere KI som ordinær teknologi, på linje med andre digitale verktøy – med nytte, risiko og begrensninger på bordet samtidig
Til syvende og sist handler ikke KI‑debatten om hva kommersielle aktører og enkelte håpefulle forskere påstår at teknologien kan gjøre, men om vår evne til å bevare et presist språk, en kritisk dømmekraft og et utdanningssystem som fortsatt setter menneskelig forståelse høyere enn statistisk etterligning.
Når vi avmystifiserer samtaleroboter og plasserer dem der de hører hjemme – som kraftige, men grunnleggende begrensede verktøy – muliggjør vi en mer ærlig og kunnskapsbasert samtale om hva slags læring, samfunn og demokrati vi ønsker å bygge. Det er i dette landskapet jeg står, sammen med akademikere som insisterer på realisme fremfor hype, begrepsklarhet fremfor markedsretorikk og menneskelig dømmekraft fremfor teknologisk fatalisme.
Skal vi navigere videre på fornuftig vis, må vi ikke spørre hva «KI» kan gjøre for oss, men hva vi som samfunn risikerer å miste dersom vi slutter å forstå hva vi faktisk gjør.
Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.
Perhaps the most persistent barrier to effective digital education is the myth of the digital native: the notion that young people possess innate technological fluency simply by virtue of their birth year. This concept, coined in 2001 to describe people born after 1980, has outlived any usefulness it might once have claimed. It is now actively harmful. It suggests that digital competence is inherited rather than taught, that wisdom about technology arrives automatically with youth, that schools need not cultivate digital discernment because young people already possess it. They do not.
At begrepet «Digitale innfødte» er en myte uten forskningsmessig forankring burde være velkjent i akademia, men jeg støter stadig på dette som en begrunnelse for hvorfor vi som forelesere i UH-sektoren bør bruk digitale «verktøy» (et foreldet begrep som snart bør erstattes av «medier»), gjerne etterfulgt av det intetsigende «studentene forventer det».
En antagelse som ofte blir fremsatt innen utdanningspolitiske utredninger og mer generelt i mediene, er at ungdom og studenter mestrer bruk av digitale kanaler og omgivelser. At ungdom og studenter har mye erfaring med og bruker mange sosiale medier, er det liten tvil om, men å bruke digitale omgivelser til å lære komplisert faglig innhold, er noe helt annet. – Sten Ludvigsen og Morten Dæhlen, 2022 (2)
Selv ser jeg tydelig i egen undervisning at den generasjonen som per definisjon skulle være «eksperter» på det digitale, først og fremst er konsumenter. I arbeidskrav der studentene utfordres på faglig bruk av ulike digitale verktøy (medier), er det denne generasjonen som oftest har problemer med praktisk bruk av det digitale.
Bruk og kompetanse er ikke direkte sidestilt, og det finnes mer kunnskap om bruken av digitale verktøy enn om faktisk digital kompetanse. – Kompetansebehovsutvalget 2024–2025, (3)
Jeg vil våge følgende påstand: Dagens studenter (med noen unntak – de som bygget sine egne datamaskiner, osv.) er, akkurat som store deler av befolkningen ellers, teknologiske analfabeter. Teknologisk analfabetisme er ikke mangel på evne til å bruke en app, men mangel på forståelse for hva som skjer «under panseret». Og denne manglende forståelsen gir seg negative utslag både i evnen til å bruke digitale verktøy i profesjonell sammenheng og evnen til å ta ansvar for egen digitale beredskap.
Totalt sett ser vi at befolkningen er mindre interessert i teknologi enn tidligere. I 2020 svarte 48% at de var ganske eller svært interessert i teknologi. Årets spørreundersøkelse viser en nedgang siden da, og ligger nå på 43%. – Norsk senter for informasjonssikring, Rapport 2023 (4)
En forventning om bruk av digitale verktøy fra dagens studenter kan derfor like gjerne være en forventning om at foreleseren skal gjøre det faglige stoffet underholdende eller strømme forelesningene, og er derfor etter min mening helt uvesentlig i en virksomhet der vitenskapelige prinsipp skal danne grunnlaget for det vi gjør.
Mye av forskningen retter søkelyset mot selve teknologien i undervisningssituasjoner, mens færre studier vektlegger de pedagogiske og didaktiske perspektivene. – Fra DIGITEK-HU samlerapport, 2025 (5)
Som teknolog med over 20 års undervisningserfaring fra både campus-baserte fag, og rene asynkrone nettstudier, tilknyttet samfunnsinformatikk-området, var – og er – bruk av digitale medier en selvfølge. Men dette er knyttet til mitt fagområde og min undervisningsfilosofi. Fokuset er på det pedagogiske og didaktiske, ikke på vage ideer om hva studentene forventer og fantasier om «digitale innfødte» eller – enda verre – «KI-innfødte».