Hvor står jeg faglig i KI-debatten – og hvem står jeg sammen med internasjonalt?

Det vi setter bort, blir vi dårligere til, særlig om vi setter det bort før vi kan det. Vi har allerede satt bort konsentrasjonskrevende lesing i noen år og nå står den konsentrasjonskrevende skrivinga for tur. En høyere andel funksjonell analfabetisme i befolkninga fører ikke til framskritt, selv om også jeg skjønner at KI kan hjelpe en analfabet i nuet.

Førstelektor Liv Cathrine Krogh, 2023 (1)

Jeg anerkjenner samtaleroboter som kraftige, men begrensede verktøy for tekstgenerering og informasjonsinnhenting. Jeg anerkjenner dem ikke som intelligente aktører. Mitt ståsted er først og fremst forankret i samfunnsinformatikken, slik Rob Kling og Tom Jewett praktiserte dette fagområdet, og derigjennom rotfestet i internasjonal kritisk KI-tenkning. Jeg bekjenner meg altså til en tradisjon som setter menneskelig dømmekraft, læring og samfunnsansvar foran teknologisk begeistring.

Hvorfor jeg er skeptisk til sekkebegrepet «KI»

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk, 2023 (2)

De siste årene har jeg brukt mye tid på å teste samtaleroboter som ChatGPT, Copilot og lignende system – ikke bare som nysgjerrig teknolog, men som undervisningsforsker og samfunnsinformatiker. Erfaringen er ganske klar: Det vi i dag kaller «KI» i offentligheten, er først og fremst statistiske tekstgeneratorer. Sekkebegrepet «KI», slik det benyttes i dagens debatt, skaper mer forvirring enn innsikt.

Når jeg sier at samtaleroboter av typen ChatGPT ikke er eksempler på kunstig intelligens, er det ikke fordi jeg vil være kontrær for artighets skyld. Det handler om noe langt mer grunnleggende; ordene vi bruker, former forventningene våre. Kaller vi statistiske tekstgeneratorer for «intelligente», inviterer vi til misforståelser – både faglig, politisk og pedagogisk.

Samtaleroboter er kraftige verktøy, men ikke tenkende aktører

«Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten»

– Førsteamanuensis Inga Strümke, 2025 (3)

Samtaleroboter er imponerende på én ting; de er ekstremt gode til å beregne hvilke ord som sannsynligvis passer etter hverandre, gitt enorme mengder treningsdata. De er derimot ute av stand til å forstå, vurdere eller reflektere.

For meg er det derfor mer presist å omtale disse systemene som:

  • Samtaleroboter – fordi de simulerer dialog
  • Statistiske tekstgeneratorer – fordi de i bunn og grunn driver med sannsynlighetsberegning over tekst

Disse systemene

  • analyserer ikke oppgaven slik en student gjør
  • vurderer ikke kildenes kvalitet
  • resonnerer ikke over konsekvenser eller logisk konsistens
  • har ingen forståelse av sannhet

«Unlike hallucinations, which introduce false-hoods, sycophancy is a bias in the selection of the data people see. When AI systems are trained to be helpful, they may inadvertently prioritize data that validates the user’s narrative over data that gets them closer to the truth.»

– Rafael M. Batista, PhD and Professor Thomas L. Griffiths, 2026 (4)

Så når vi omtaler disse digitale systemene som «intelligente», er det lett å glemme at alt de gjør, er resultat av menneskelig programmering, menneskelig data og menneskelig tolkning.

«Intelligensen» er altså kun en illusjon skapt av statistiske mønstre, der det verken forekommer analyser, vurdering eller faktaforståelse. Og når samtaleroboter produserer tekster som forsterke brukerens antakelser, fordommer og ønskedrømmer så er dette ikke resultat av en villet handling basert på kognitive prosesser. Det er ren statistikk.

Hva samtaleroboter faktisk klarer – og ikke klarer

Today’s large language models are phenomenal at pattern recognition. But they don’t truly understand causality. They don’t really know why A leads to B. They just predict the next token based on statistical correlations.

– Sir Demis Hassabis , 2026 (5)

Mine egne tester, og internasjonal forskning, peker i samme retning:

  • lavere nivå i Blooms taksonomi (reproduksjon, forklaring, oppsummering) kan samtaleroboter levere svar som ser brukbare ut.
  • høyere nivå (analyse, tolkning, vurdering, kritisk refleksjon) faller de gjennom – ofte på spektakulært vis.

Måten KI kommer frem til svarene er at den opererer som slags midtpunkt eller gjennomsnitt av det som allerede sirkulerer av informasjon på internett. Nettopp derfor kan den ikke skape noe genuint nytt, men først og fremst reorganisere det som allerede finnes.

– Erika Eidslott, PhD., 2026 (6)

Derfor bruker jeg ikke KI til vurdering og karaktersetting. Et system som ikke forstår faglig kvalitet, ikke kan skille mellom ekte og falske kilder, og som ikke kan redegjøre for egen «tenkning», er etter mitt syn uegnet som vurderingsinstans. Det betyr ikke at verktøyene er ubrukelige, men at de må brukes som nettopp det – verktøy, ikke faglige sensorer.

Mitt internasjonale faglige slektskap

In the literal sense, the programmed computer understands what the car or the adding machine understand: namely, exactly nothing.

—John Searle, 1980 (7)

Som samfunnsinformatiker med fokus på Human‑Centric Security, med over 30 års erfaring med faglig og underholdningsmessig bruk av informasjonsteknologi – både som IT-sjef, gamer, underviser og undervisningsforsker – og med mer enn 20 års erfaring med studentaktiv og nettbasert undervisning, har jeg plassert meg i kretsen av nasjonale og internasjonale forskere som er kritiske til hvordan begrepet «KI» brukes i offentligheten. 

Jeg står altså ikke alene i mitt syn på at samtaleroboter ikke er strålende eksempler på «KI». Tvert imot befinner jeg meg i et ganske tydelig internasjonalt landskap av forskere og fagmiljøer som:

  • kritiserer hypen rundt «KI»
  • avmystifiserer LLM-er
  • insisterer på at vi må skille mellom statistisk mønstergjenkjenning og intelligens

Blant dem finner vi:

I utdanningsfeltet står jeg nær forskere som Neil Selwyn, Audrey Watters og Jeffrey Bilbro, som har vist hvordan «revolusjonerende» læringsteknologi gang på gang ender som moderate verktøy – ofte med merarbeid og nye former for avhengighet, men uten den lovede læringsgevinsten.

Når jeg plasserer meg selv i dette internasjonale landskapet, er det fordi jeg kjenner meg igjen i tre felles kjennetegn:

  1. Teknologirealisme: Verken demonisering eller ukritisk begeistring, men nøktern analyse av hva systemene faktisk gjør.
  2. Begrepskritikk: Motstand mot å bruke «intelligens» om systemer som ikke forstår, ikke resonnerer og ikke har mål eller intensjoner.
  3. Fokus på menneskelig læring og dømmekraft: Teknologi skal støtte, ikke erstatte, menneskelig tenkning – særlig i utdanning.

Hvorfor er det viktig med et kritisk blikk?

From a critical analytical perspective, the idea that human and machine intelligence can and should be compared is equally problematic because it creates a false equivalence between human decision-making and computer decision-making. This false equivalence can become the basis for a series of dubious practices, such as the replacement of (fallible) human judgement with (allegedly superior, but no less fallible) machine judgement.

– Cristobal Garibay-Petersen, Marta Lorimer and Bayar Menzat, 2026 (8)

I norsk utdanningsdebatt brukes «KI» nå om alt fra stavekontroll til samtaleroboter. Og i ulike styredokumenter ol. som skal danne grunnlag for bruk av digitale verktøy i høyere utdanning, ser vi altfor ofte påstander av typen «forventes å påvirke universitetets kjerneoppgaver». Men denne og lignende påstander forankres ikke i forskning, men i vage henvisninger til «debatten» eller til ulike mediehistorier.

Men universiteter skal ikke forankre sin politikk i vage og sprikende «debatter», men i forskning. Når såkalt «generativ KI» fremstilles som en uunngåelig revolusjon, er dette synsing ikke evidensbaserte fakta og et symptom på at vi mangler ikke bare et presist språk men en grunnleggende forståelse for teknologi.

For meg er dette ikke bare en faglig irritasjon, men et demokratisk spørsmål. Hvis vi ikke klarer å skille mellom:

  • verktøy som hjelper oss å skrive litt raskere, og
  • systemer som faktisk kan ta autonome beslutninger med reelle konsekvenser

– da gjør vi oss selv sårbare. Ikke for «den onde KI-en», men for mennesker og institusjoner som bruker teknologien til å styre, manipulere og effektivisere på måter vi ikke fullt ut forstår.

Oppsummert

That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.

– Professor Tressie McMillan Cottom, 2025 (9)

Slik jeg ser det er det min jobb (og plikt) som teknolog og fagperson ved et universitet å

  • ikke omtale samtaleroboter som intelligente – men heller beskrive dem som det de er: statistiske tekstgeneratorer
  • bruke dem som pedagogiske case, ikke som fasit – særlig for å trene kritisk tenkning, kildekritikk og forståelse av hva teknologi kan og ikke kan
  • styrke teknologiforståelse og vitenskapelig allmenndannelse – slik at både studenter og beslutningstakere kan gjennomskue medieskapte fantasier
  • diskutere KI som ordinær teknologi, på linje med andre digitale verktøy – med nytte, risiko og begrensninger på bordet samtidig

Til syvende og sist handler ikke KI‑debatten om hva kommersielle aktører og enkelte håpefulle forskere påstår at teknologien kan gjøre, men om vår evne til å bevare et presist språk, en kritisk dømmekraft og et utdanningssystem som fortsatt setter menneskelig forståelse høyere enn statistisk etterligning.

Når vi avmystifiserer samtaleroboter og plasserer dem der de hører hjemme – som kraftige, men grunnleggende begrensede verktøy – muliggjør vi en mer ærlig og kunnskapsbasert samtale om hva slags læring, samfunn og demokrati vi ønsker å bygge. Det er i dette landskapet jeg står, sammen med forskere som insisterer på realisme fremfor hype, begrepsklarhet fremfor markedsretorikk og menneskelig dømmekraft fremfor teknologisk fatalisme.

Skal vi navigere videre på fornuftig vis, må vi ikke spørre hva «KI» kan gjøre for oss, men hva vi som samfunn risikerer å miste dersom vi slutter å forstå hva vi faktisk gjør.

Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.

Frank Herbert, Dune, 1965

Leseliste

  1. Large Language Model Reasoning Failures
  2. AI as Normal Technology
  3. On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?
  4. GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about
  5. Why AI is Harder Than We Think
  6. AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference
  7. Navigating the AI/ML Hype: Applying Carl Sagan’s Baloney Detection Principles
  8. The Ethics of AI in Education
  9. The AI We Deserve
  10. Who and What comprise AI Skepticism?
  11. Why AI is not a science
  12. Om kunstig intelligens
  13. The history of artificial intelligence, Del 1, Del 2 og Del 3
  14. Understanding the different types of artificial intelligence
  15. Artificial intelligence: How is it different from human intelligence?
  16. Viewpoint: When Will AI Exceed Human Performance? Evidence from AI Experts
  17. Dear laymen, here’s what you got wrong about AI or LLM

Når over 20 år gamle digitale verktøy, og enda eldre praksis, omtales som «nye»…

Illustrasjon generert av Microsoft Copilot

«Historically, AI researchers’ predictions about progress in AI abilities have been pretty bad. We don’t really have principles that describe which kinds of tasks are easy for AI and which ones are hard»

Professor Arvind Narayanan, 2026 (1)

Samlebetegnelsen «KI» er stadig i vinden, og med utgangspunkt i samtaleroboter av typen ChatGPT, Copilot osv. er det ikke måte på hvor store endringer som nå kommer til å skje i de akademiske søylehaller.

I en artikkel på Uniforum fra 28. januar i år, siteres Malthe Sørenssen på at studentene «går frå å hugsa og memorera til å skapa noko sjølve», og at dette krever «nye ferdigheiter» knyttet til bruk av video og podkast. Forutsatt at journalisten har oppfattet Malthe Sørenssen korrekt så viste han altså til bruk av video og podkast som «nye verktøy for studentane».

For mange av oss som har arbeidet med studentaktiv undervisning i informatikk og IKT didaktikk i en årrekke, er det vanskelig å lese dette uten å stusse. Video og podkast som nye verktøy? En overgang fra memorering til skapende arbeid som noe som først skjer nå? Er virkelig kombinasjonen store språkmodeller og samtalegrensesnitt en så fantastisk nyskapende «intelligens» at studentaktiv undervisning og bruk av digitale medier i innholdsproduksjon ved norske universitetsstudier først nå plutselig er blitt gjennomførbart?

Det er mulig at Malthe Sørenssen i den sammenheng som artikkelen refererer til, med hensikt forenklet budskapet for å favne hele spekteret innen UH-sektoren. Men selv har jeg stått i denne utviklingen siden tidlig 2000-tallet, og for meg fremstår slike utsagn litt anakronistiske og kunnskapsløse.

Studentaktiv undervisning er ikke nytt – det er selve grunnmuren i informatikkdidaktikken

«But in a social-issues course, the life experiences and personal values of each student are uniquely relevant to their learning process. Therefore, this type of course places a premium on teaching methods that can build on those life experiences and help to clarify and strengthen those personal values»
– Tom Jewett, PhD. og Professor Rob Kling, 1996 (2)

I informatikkfagene, og kanskje særlig i den delen som kalles samfunnsinformatikk, har studentaktivitet vært en integrert del av undervisningsdesignet i flere tiår. Her har vi lenge jobbet med:

Dette er ikke eksperimentelle tilnærminger, men moden pedagogisk praksis som er godt dokumentert i både norsk og internasjonal forskning.

Utfordringer med denne type utsagn

«Ifølge rapporten finnes det ingen bevis for at KI forbedrer produktiviteten, pedagogikken eller læringsutbyttet. I mange tilfeller har innføringen av KI heller ført til en negativ utvikling på disse områdene. I motsetning til hva universitetsansatte ofte blir fortalt, har innføringen av KI gjort det akademiske arbeidet tyngre og mindre meningsfullt»
– Professor Holger Pötzsch, universitetslektor Knut Ørke, og forsker Maria Danielsen, 2026 (3)

Det er ikke alltid lett å vite om denne type utsagn som Malthe Sørenssen siteres på er grunnet i ren kunnskapsløshet om andre måter å undervise på enn det man selv gjør, eller om man rett og slett ønsker å løfte frem en (gammel) debatt om forelesninger kontra mer studentaktive metoder. Uansett hensikt, slik utsagn kan skape noen uheldige situasjoner.

  1. Det skapes en udokumentert «sannhet» om at «KI» vil føre til store endringer for hvordan vi underviser og lærer på et universitet.
    Det finnes absolutt ingen vitenskapelige holdepunkt for påstander om at «KI», i uspesifisert form, vil fullstendig endre allerede godt etablert viten om hvordan bedrive læringsaktiviteter i høyere utdanning. Og jo flere ganger denne type «eventyr» gjentas, jo vanskeligere blir det for kritiske fagstemmer å komme til orde. Dette kan fort føre til at utdanningsmyndighetene kjøper ideen om at samtaleroboter er en helt ny og unik «intelligens», og bruker store beløp av skattebetalernes penger til å skaffe helt unødvendige lisenser fra OpenAI eller andre tilbydere til UH-sektoren.
  2. Malthe-Sørensen, i egenskap av utvalgsleder, ønsker å favne hele sektoren, ikke kun fagmiljøer som ligger langt fremme.
    Det finnes selvsagt mange fagområder hvor studentaktiv læring og aktiv bruk av ulike digitale medier til studentproduserte produkt fortsatt er i startfasen, og der det er ønskelig at prosessen mot andre undervisningsmetoder får en noe større fart. Men slike utsagn kan oppfattes som generalisering av hele UH sektoren, og dermed skape et feil bilde av hvor langt mange fagmiljøer faktisk har kommet og hvor lenge slik bruk av digitale medier har vært standard.
  3. Retorikk som skal skape inntrykk av nytenkning
    Det er kanskje fristende å omtale etablerte praksiser som «innovasjon» for å gi politiske prosesser større fart, og det er i og for seg legitimt. Problemet er at dette fort kan undergrave ulike fagmiljøers reelle utviklingsarbeid, som gjerne har pågått i tiår.
  4. Et gap mellom utvalgets verden og faktisk undervisningspraksis
    Når en utvalgsleder beskriver en utdanningsvirkelighet frakoblet en mer enn 20 års utvikling, kan utvalgets endelige anbefalinger fort bli lite relevante for fagmiljøer som alt lenge har fokusert på «learning by doing». Dette minner om den gang NTNU-professor Arne Krokan begynte med MOOC i 2012 og media og politikere ojet seg over dette fantastiske nye kalt «E-læring» eller «Nettbasert undervisning», og glemte at dette var noe norske utdanningsmiljø hadde holdt på med siden 1987.

Et utvalg som risikerer å ikke treffe praksisfeltet

«Språkmodeller modellerer ikke virkeligheten, de modeller språk. De lager ikke tekst basert på fakta og årsakssammenhenger, de lager tekst som ser ut som om den kan være riktig»
– Professor Jill Walker Rettberg, 2025 (4)

Når en leder for et offentlig utvalg omtaler video og podkast som «nye verktøy», sender det et signal om at man ikke har oversikt over den pedagogiske utviklingen som faktisk har skjedd i store deler av UH-sektoren. For undervisere som daglig jobber med studentaktive, skapende læringsformer, kan dermed KI-utvalget fort fremstå som lite relevante selv om Malthe Sørenssen sine uttalelser ikke nødvendigvis gir et bilde av utvalgets samlede arbeid per nå eller hva de endelige anbefalingene vil bli.

Det er godt mulig at det i deler av UH‑sektoren fortsatt er slik at studentaktiv læring og bruk av digitale medier til innholdsproduksjon er «nytt» og under innfasing, men en utvalgsleder som skal peke ut retningen for fremtidens utdanning bør ha – og vise – god kunnskap om nåtiden. Hvis ikke risikerer vi at politiske anbefalinger blir basert på en virkelighet som kun eksisterer i de mest nedstøvede akademiske elfenbenstårn.

Avslutning

«Part of our response to GenAI in education needs to be squarely centred on a simple question – what do we want the benefits of our education to be? If it is “to be good at writing prompts for ChatGPT” then so be it but I would guess that it’s not. We want graduates that are skilled enough that should they actually find use in GenAI in the world of post-degree work, they will be the type of adaptable, capable people who can quickly pick up the tool and get going with it»
– Jeremy Moulton, PhD., 2025 (5)

Når vi omtaler godt over 20 år gamle praksiser og verktøy som «nye», mister vi ikke bare en helt nødvendig presisjon, men vi mister også muligheten til å diskutere de faktiske utfordringene i høyere utdanning, der såkalt «KI» i form av «samtaleroboter» bare er en liten del av et større hele.

Det er derfor på høy tid at de som skal stå for nye utdanningspolitiske prosesser tar inn over seg at for mange fagmiljøer er studentaktiv læring og utforsking av digitale verktøy gammelt nytt. For disse miljøene er samtaleroboter kun nok et interessant digitalt medie, ikke en mystisk «intelligens» som kaster overbord veletablerte pedagogiske metoder og vurderingspraksiser.

«That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.»
– Professor Tressie McMillan Cottom, 2025 (6)

Redigert: 03.02.26

Leseliste

  1. Learning by Doing – the Way to Develop Computer Science Professionals
  2. LEARNING BY DOING: TWENTY SUCCESSFUL ACTIVE LEARNING EXERCISES FOR INFORMATION SYSTEMS COURSES
  3. Active learning increases student performance in science, engineering, and mathematics
  4. A review of podcasting in higher education: Its influence on the traditional lecture
  5. Smart Learning in the 21st Century: Advancing Constructionism Across Three Digital Epochs
  6. Active Learning Strategies in Computer Science Education: A Systematic Review
  7. How are we doing with student-centered learning facilitated by educational technologies? A systematic review of literature reviews
  8. Promoting computational thinking through project-based learning
  9. Constructivism in Computer Science Education
  10. Motivational Active Learning – Engaging University Students in Computer Science Education
  11. Does the Flipped Classroom Improve Student Learning and Satisfaction? A Systematic Review and Meta-Analysis
  12. Student-Produced Podcasts as a Teaching and Learning Tool
  13. NOU 2014: 5 – MOOC til Norge Nye digitale læringsformer i høyere utdanning
  14. The GenAI Divide – STATE OF AI IN BUSINESS 2025
  15. Artificial Intelligence and Academic Professions

Den farlige drømmen om KI

En forkortet og omredigert versjon av det opprinnelige innlegget er publisert på Altinget.no Dette innlegget ble sist oppdatert 24.02.26.

That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.

Professor Tressie McMillan Cottom, 2025 (1)

Tross hypen rundt såkalt «kunstig intelligens», viser både egne tester og faglige vurderinger fra både nasjonale og internasjonale forskere, at samtaleroboter som ChatGPT mangler både intelligens og innsikt. De er avanserte tekstgeneratorer som imiterer språk uten forståelse, og dagens medieskapte myter om tenkende maskiner kan fort bli en beredskapsmessig trussel.

Innledning

«No, Bloomberg News, ChatGPT did not get an MBA. No, NBC News, ChatGPT did not even pass an exam.»
– Professor Melanie Mitchell (2)

I løpet av de siste årene har samtaleroboter som ChatGPT, Copilot, Gemini ol. blitt løftet frem som teknologiske mirakler og verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Men bak medieoverskriftene og de euforiske uttalelsene fra politikere og næringslivsaktører skjuler det seg en virkelighet som er langt mer nyansert, til dels ytterst kjedelig og absolutt uten noen form for intelligens.

Som informasjonsviter med et særlig blikk for informasjonsteknologiens pedagogiske og samfunnsmessige implikasjoner siden 90-tallet, har jeg over to år testet 14 ulike samtaleroboter på eksamensoppgaver knyttet til fagfeltet Samfunnsinformatikk.

Samtlige oppgaver krevde analyse, syntese og evaluering og var utformet for å måle studentenes evne til faglig refleksjon knyttet til helt spesifikt fagstoff, evne til å knytte dette til egen yrkesvirkelighet, evne til å reflektere over egen læring og evne til å finne gode (og etterprøvbare) fagkilder for å bygge opp under egne faglige refleksjoner.

Resultatene var entydig negative og gjorde det krystallklart at disse verktøyene verken er intelligente eller kreative. Og de er absolutt ikke faktainnhentere. De er avanserte statistiske tekstgeneratorer klart bundet av algoritmer og mønstergjenkjenning, ikke forståelse.

Både mine tester, og internasjonal forskning på hvordan samtaleroboter behandler eksamensoppgaver knyttet til høyere nivå i Blooms taksonomi, viser at mediehistoriene om at dette var verktøy som lett kunne skrive gode universitetsbesvarelser uansett fagemne ikke stemmer. Og amerikanske forskere har for lengst vist at påstandene om at ChatGPT, og lignende verktøy, klarte bachelor og mastereksamener ikke holdt vann.

Som førsteamanuensis Inga Strümke påpekte i NRK i mai 2025; «Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten». Til tross for dette teknologiske faktum ser vi stadig – selv nå i 2025 – at enkelte akademikere mener at samtaleroboter kan besvare alle typer eksamensoppgaver og at de samme systemene kan avsløre tekster skrevet av «KI». At dette er fantasier som for lengst er tilbakevist, virker å være helt ukjent.

Professor Jon Whittle er en av mange forskere som prøver å holde fagområdet Kunstig Intelligens på et saklig og vitenskapelig nivå. I sin forelesning «There’s no such thing as Artificial Intelligence» påpeker han følgende:

Skjermdump av slide

Men til tross for forskere som professor Whittle og det faktum at absolutt ingen av de vidløftige påstandene knyttet til samtaleroboter er innfridd eller validert av ekstern forskning, lever mytene om KI videre og samtaleroboter er plutselig blitt inngangsporten til drømmen om tenkende maskiner.

Manglende vitenskapelig kompetanse


«The current idea that chatbots are «AI» and claims that computers can now truly think is a reflection of the imbalance between rapid technological progress and the widespread lack of scientific literacy. In the past, people fervently believed in demons and UFOs. Today, it’s AI»
– Førstelektor Per A. Godejord (Kommentar på BlueSky)

Utsagnet mitt over bygger på en observasjon Carl Sagan gjorde på slutten av 1990-tallet; at det var et kritisk behov for utbredt vitenskapelig kompetanse i en verden som i stadig større grad formes av vitenskap og teknologi. I dag er denne teknologiske påvirkningen, i det minste i den velstående delen av verden, enda mer fremtredende.

Sagan advarte om at et samfunn som er sterkt avhengig av teknologi, men mangler forståelse for den, er iboende ustabilt og utsatt for manipulasjon. Han mente at manglende vitenskapelig forståelse gjør folk sårbare for pseudovitenskap og feilinformasjon, noe som hemmer evnen til å ta informerte beslutninger.

Etter min mening er denne bekymringen like relevant i dag, om ikke mer. Dette ser vi særlig i det stadig pågående mediehysteriet rundt fremveksten av samtaleroboter av typen ChatGPT og disses videreutviklede versjoner.

Det virker for meg som behovet for det Carl Sagan kalte et «baloney detection kit» er enda større nå enn det var på 90-tallet. Og da særlig knyttet til de ulike påstandene om at ChatGPT og lignende verktøy kan svare ekspertmessig på alle typer universitetsoppgaver, på mystisk vis avsløre «KI-tekster» og at samtalerobotenes utvikling betyr at vi nå har intelligente datamaskiner.

Denne type påstander er ikke bare vitenskapelig uholdbare, de kan være farlig.

Etter min faglige vurdering er det uansvarlig når informatikere eller informasjonsvitere omtaler samtaleroboter som “kunstig intelligens”. Slike uttalelser bidrar til å erstatte science facts med science fiction, og kan over tid svekke tilliten til akademia.

Mytene om KI er en samfunnsrisiko

When all is said and done, my best guess is that generative AI will have done significantly more harm to society than good. Although there are some practical use cases, such as coding, it is an inherently unreliable technology. It is ripping apart our educational system and our information ecosphere, and flooding the zone with nonconsensual deepfake porn. It is threatening the environment with data centers built on too much speculation. It is leading some people into serious mental health issues. And it may well lay waste to our economy, once banks and investors who bought the hype start to fall.
– Professor Gary Marcus, 2026 (4)

Det mest alvorlige i de siste årenes mediefantasier knyttet til samtaleroboter er ikke teknologien i seg selv, men hvordan vi forstår og bruker den. Når både media, politikere og utdanningsinstitusjoner ukritisk videreformidler ideen om at samtaleroboter er intelligente og at vi som del av dette nå plutselig har utviklet intelligente maskiner, bidrar vi til en teknologisk analfabetisme som kan få alvorlige konsekvenser.

Så og si samtlige mennesker i dette landet er storkonsumenter av digitale medier. Men det er ikke gitt at dette utstrakte konsumet gir seg utslag i særlig stor forståelse, verken blant eldre eller unge, for hva digital teknologi i bunn og grunn rent faktisk er.

Og i en tid preget av omfattende digital sårbarhet, økende hybrid krigføring og informasjonskrig, er det avgjørende at befolkningen har en realistisk og kunnskapsbasert forståelse av hvordan informasjonsteknologi faktisk fungerer. En slik forståelse vil være det sikreste botemiddel mot digitale trusler fra både kriminelle og fiendtlige nasjoners etterretning.

Særlige våre ikke-teknologiutdannede politikere trenger å forstå at KI ikke er ett verktøy, men et kontroversielt sekkebegrep som omfatter en hel rekke ulike IT-systemer.

Samtalerobotene som media og våre politikere er så begeistret for, er utelukkende utviklet for å skrive gode setninger, og har absolutt ingen anelse om vår eksistens. En datamaskin kan verken føle eller tenke, og resultatet av våre spørsmål er verken intelligens eller resonnering, og slett ikke forståelse. Det ChatGPT og lignende verktøy leverer, er lynhurtig autofullføring av tekst. Og disse verktøyene er, på samme måte som sosiale medier, konstruert for å være avhengighetsskapende.

Ingen av de ulike systemene/ verktøyene som er utviklet som del av forskningsfeltet KI, vil i seg selv nødvendigvis være nyttig i alle deler av det offentlige og det private, med mindre en klar strategi for IT-bruk i den enkelte virksomhet er på plass. Og bare fordi media og deler av næringslivet, med våre politikere som lydige etterplaprere, nå kaller ethvert IT-system for «KI», betyr ikke at vi per nå rent faktisk har utviklet digitale system som er i nærheten av intelligens.

I dagens kompliserte verden trenger vi ikke flere myter om såkalt «KI», ei heller forbud mot – eller restriksjoner på – bruken av samtaleroboter og andre typer assistent-verktøy. Vi trenger digital dannelse, teknologikritikk og et utdanningssystem som setter individet, menneskelig innsikt og refleksjon i sentrum og ikke maskinens evne til å etterligne slike egenskaper.

Vi trenger å utdanne og bevisstgjøre folk slik at de slutter å overlate egen dømmekraft til datamaskiner eller hengir seg til fantasier om at statistiske «regnemaskiner» er velegnet som psykologer. En utstrakt bruk av lettvinte løsninger a la ChatGPT gjør oss dummere, og dermed til et lettere bytte for fiendtlige aktører.

Kanskje er det derfor på høy tid å hente frem, og tenke litt over, Carl Sagan sine ord fra boken «The Demon-Haunted World: Science as a Candle in the Dark»:

«We have designed our civilization based on science and technology and at the same time arranged things so that almost no one understands anything at all about science and technology. This is a clear prescription for disaster.»

Leseliste

Leselisten oppdateres med jevne mellomrom. Sist oppdatert: 11.02.2026
  1. Large Language Model Reasoning Failures
  2. AI bot swarms threaten to undermine democracy
  3. How AI Destroys Institutions
  4. ‘Dangerous and alarming’: Google removes some of its AI summaries after users’ health put at risk
  5. AI’s Memorization Crisis
  6. Extracting books from production language models
  7. On the Slow Death of Scaling
  8. 2026 er året KI blir flaut på jobb
  9. The Fever Dream of Imminent Superintelligence Is Finally Breaking
  10. There’s no such thing as Artificial Intelligence
  11. The AI expert who says artificial general intelligence is nonsense
  12. Artificially voiced intelligences: voice and the myth of AI
  13. Artificial Intelligence: A Clarification of Misconceptions, Myths and Desired Status
  14. A Comprehensive Review of AI Myths and Misconceptions
  15. Decoding AI Misconceptions and Their Impact on Creativity, Culture, and Equity
  16. Navigating the AI/ML Hype: Applying Carl Sagan’s Baloney Detection Principles
  17. ChatGPT and other language AIs are nothing without humans – a sociologist explains how countless hidden people make the magic
  18. ChatGPT is not “true AI.” A computer scientist explains why
  19. Can computers think? No, they cant actually do anything
  20. Why Our Machines Will Never Be as Smart as We Are
  21. Why a computer will never be truly conscious
  22. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do
  23. Will computers overtake humans in intellectual ability?
  24. The Dark Addiction Patterns of Current AI Chatbot Interfaces
  25. Psychiatric Researchers Warn of Grim Psychological Risks for AI Users
  26. As AI becomes more popular, concerns grow over its effect on mental health
  27. Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models
  28. Is Your Privacy at Risk? Understanding the Threat of GenAI Chatbots
  29. Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance
  30. Perceptions and Acceptance of Artificial Intelligence: A Multi-Dimensional Study
  31. Beyond Chatbot-K: On Large Language Models, “Generative AI,” and Rise of Chatbots—An Introduction
  32. The Silicon Illusion: Why AI Cannot Substitute for Scientific Understanding
  33. AI Without The Hype: What’s Really Going On With Generative AI
  34. I got fooled by AI-for-science hype—here’s what it taught me

Samtaleroboter i akademia – KI-verktøy eller kun statistiske tekstgeneratorer?

Dette innlegget er basert på arbeidet jeg har gjort knyttet til samtaleroboters evne til å besvare arbeidskrav (eksamensoppgaver) i mine fagemner. En omarbeidet versjon er tidligere publisert på forskersonen.no

In a world in transition, students and teachers both need to teach themselves one essential skill – learning how to learn.

Carl Sagan

Samtaleroboter som ChatGPT fremstår som språklig imponerende, men avsløres som faglig svake når de møter akademiske krav. De genererer overfladiske svar og falske kilder, og mangler evne til kritisk tenkning og forståelse. I høyere utdanning bør de omtales som digitale verktøy – ikke intelligente hjelpere.

Innledning

«Neural networks today are realized in software, rather than in electrical circuits, and to be clear, neural net researchers don’t try to actually model the brain, but the software structures they use — very large networks of very simple computational devices — were inspired by the neural structures we see in brains and nervous systems»
– Professor Michael Wooldridge (1)

«Differences about the future of AI are often partly rooted in differing interpretations of evidence about the present. For example, we strongly disagree with the characterization of generative AI adoption as rapid»
– Professor Arvind Narayanan and Senior Fellow Sayash Kapoor (2)

«Min hypotese er at de som tar avgjørelsen om hvorvidt man vil kalle noe for kunstig intelligens eller ikke, ofte ser på begrepsbruken som en fordel. Man framstår kanskje som mer moderne og fremtidsrettet. Eller man får flere klikk på artikkelen man skriver»
– Nora Gjøen-Gjøsæter (3)

«Jeg liker ikke å kalle det «kunstig intelligens»
– Roger Olafsen (4)

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk (5)

Siden lanseringen av ChatGPT i november 2022 har debatten om kunstig intelligens (KI) i utdanning og samfunn eksplodert. Samtaleroboter som ChatGPT ol. har blitt løftet frem som teknologiske mirakler – verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Mediene har vært fulle av både dommedagsprofetier og euforiske visjoner. Men bak overskriftene og den teknologiske euforien skjuler det seg en virkelighet som er langt mer nyansert, og langt mindre intelligent.

Men hva skjer når vi faktisk setter de ulike verktøyene på prøve, i møte med reelle akademiske krav og praksisnære oppgaver? Dette innlegget bygger på egne systematiske tester av ChatGPT og 13 andre lignende samtaleroboter, gjennomført over to år, og jeg vil hevde at disse verktøyene ikke representerer et paradigmeskifte i høyere utdanning, men kun en ny variant av gamle verktøy med bedre markedsføring.

Språklig briljans – faglig svakhet

«While general-purpose LLMs are great starting points, they typically lack deep domain expertise to help within specific areas. In many ways, this is similar to the case with human expertise: A person cannot become an expert in a particular field unless they have formal education, training, and in-depth experience.»
– Tony Beltramelli (6)

ChatGPT og de ulike samtalerobotene imponerer ved første øyekast. Det skriver flytende, høflig og grammatisk korrekt. Men når systemene blir bedt om å besvare arbeidskrav utformet i tråd med høyere nivå i Blooms taksonomi fra fagemner knyttet til samfunnsinformatikk-feltet, der det ikke finnes klare svar eller evige sannheter, faller de gjennom. De klarer ikke å analysere, vurdere eller reflektere, kjernekompetanser i høyere utdanning. I stedet produserer de overfladiske svar som ofte bare reformulerer oppgaveteksten. Det som fremstår som innsikt, er i realiteten statistisk sannsynlige ordkombinasjoner.

Hallusinasjoner og falske kilder

Et gjennomgående problem er såkalte «hallusinasjoner», disse verktøyenes tendens til å dikte opp fakta, forfattere og litteratur. I flere av mine tester genererte de ulike samtalerobotene akademiske referanser som ikke eksisterer, men som så troverdige ut. Dette er ikke bare en teknisk svakhet, men en alvorlig utfordring for akademisk integritet. Når studenter bruker slike verktøy ukritisk, risikerer de å levere besvarelser som er både faglig svake, faktisk feil og helt uten den tankevirksomhet det er meningen at universitetsstudier skal oppøve.

En dårlig støtte for svake studenter

Basert på resultatene av mine tester vil bruk av samtaleroboter i fagemner der det finnes få eller ingen klare fasitsvar, i liten grad hjelpe faglig svake studenter. Tvert imot vil de antakelig forsterke svakhetene. Studenter uten grunnleggende fagforståelse klarer ikke å stille gode spørsmål (prompting), og ender opp med generiske svar uten dybde. Samtidig kan faglig sterke studenter bruke verktøyene som en slags «digital sekretær» til å strukturere tekst, oppsummere kilder eller generere utkast. Men dette krever høy grad av kritisk vurdering og etterarbeid, og studenten slipper ikke unna å selv måtte formulere sine faglige refleksjoner forankret i egen yrkespraksis og i relevant faglitteratur.

Og besvarelsene fra de faglige svake studentene, den gruppen som med størst sannsynlighet lar seg friste til å ta snarveier, er slett ikke vanskelig å oppdage, noe også andre forskere har pekt på (Molnes, 2024)

Ikke kunstig intelligens – bare avansert statistikk

«The bots ingest staggering amounts of text and conversations to detect patterns. Their programming predicts how to respond naturally by matching and remixing these learned patterns. But ultimately, it takes human guidance to steer these statistical models in an thoughtful direction.»
– Andy Tillo (7)

Til tross for at media og andre stadig henviser til ChatGPT og lignende samtaleroboter som kunstig intelligens (KI) er disse verktøyene absolutt ikke intelligente. De forstår ikke spørsmål, resonnerer ikke, og har ingen bevissthet. De er basert på avanserte språkmodeller som gjetter neste ord basert på sannsynlighet.

Stipendiat David Samuel ved Universitetet i Oslo sin språkteknologigruppe var ganske klar i et intervju i Universitas i 2022 på at ChatGPT ikke på noen måte var intelligent (Gundersen, 2022) og Ian Venner ved Hurricane peker på at de store språkmodellene først og fremst har indeksert internett. Ved å behandle alle dataene de har tilgang til der, samt de data som ulike aktører har lagt inn i systemene, har de skapt koblinger mellom datasett basert på faste regelsett. Dette betyr at lignende informasjon grupperes sammen, vektes og kobles til andre lignende områder, noe som gir et stort nettverk av sammenkoblet data. Dette, hevder Venner, er ikke kunstig intelligens, men datamining (Venner, 2024). Og sist, men ikke minst, KI er ikke en teknologi eller ett verktøy, men et upresist «sekkebegrep» som omfatter en rekke ulike systemer/ verktøy basert på ulike teknologier hvis intelligens er ytterst diskutabel. Professor Jan Ketil Arnulf ved BI foreslår at vi bør droppe begrepet «Kunstig intelligens» og heller bruke begrepet «kunstige aktører» (Arnulf, 2024), noe jeg for min del er enig i.

Å ukritisk kalle de ulike samtalerobotene for KI er misvisende og det tilslører det faktum at disse verktøyene verken er spesielt revolusjonerende, eller spesielt nye og utelukkende er programmert for å skrive gode setninger basert på statistisk analyse av de bokstavsammensetninger en bruker legger inn.

Hva betyr dette for høyere utdanning?

Det er etter min mening ingen grunn til panikk. Samtaleroboter truer ikke utdanningen ved våre høyskoler og universiteter så lenge vi utformer eksamensoppgaver og arbeidskrav i tråd med høyere nivå i Blooms taksonomi. Oppgaver som krever refleksjon og kritisk tenkning, faglig forankring og personlig erfaring, lar seg ikke løse av samtaleroboter. Tvert imot gir dette oss en gyllen mulighet til å styrke undervisningskvaliteten ved å fokusere på oppgavedesign, veiledning og vurderingsformer som fremmer dyp læring.

Avslutning – Fra hype til realisme

«There tend to be three AI camps. 1) AI is the greatest thing since sliced bread and will transform the world. 2) AI is the spawn of the Devil and will destroy civilization as we know it. And 3) «Write an A-Level paper on the themes in Shakespeare’s Romeo and Juliet.»
I propose a fourth: AI is now as good as it’s going to get, and that’s neither as good nor as bad as its fans and haters think, and you’re still not going to get an A on your report. You see, now that people have been using AI for everything and anything, they’re beginning to realize that its results, while fast and sometimes useful, tend to be mediocre.»
– Steven J. Vaughan-Nichols (8)

Samtaleroboter er nyttige verktøy innenfor begrensede områder, men ikke mer enn det. De kan brukes til oversettelser, oppsummeringer og idéutkast. Men de kan ikke tenke, forstå eller lære. Det er derfor på tide å legge bort både frykten og euforien, og møte teknologien med nøkternhet og faglig dømmekraft.

For i en tid der det rene tøv kan genereres på kommando, blir evnen til kritisk tenkning viktigere enn noen gang.

Kilder

  1. Arnulf, J. K. (2024). Bør vi snakke om kunstige «aktører» i stedet for «intelligens»? BI Business Review. Hentet fra https://www.bi.no/forskning/business-review/articles/2024/09/bor-vi-snakke-om-kunstige-aktorer-i-stedet-for-intelligens/
  2. Gundersen, G. M. (2022). Forsker avmystifiserer «ChatGPT»: – Den er ikke intelligent på noen måte. Universitas. Hentet fra https://www.universitas.no/ai-chatgpt-david-samuel/den-er-ikke-intelligent-pa-noen-mate/366594
  3. Molnes, G. (2024). Professor: – De flinke studentene blir bedre med KI. Utdanningsnytt. Hentet fra https://www.utdanningsnytt.no/ai-juks-kunstig-intelligens/professor-de-flinke-studentene-blir-bedre-med-ki/390405
  4. Sagan, C. (1996). The demon-haunted world: Science as a candle in the dark. The Random House Publishing Group.
  5. Venner, I. (2024). How AI has been hijacked, the AGI fallacy and leveraging Vertical AI. Hurricane Commerce. Hentet fra https://hurricanecommerce.com/how-ai-has-been-hijacked-the-agi-fallacy-and-leveraging-vertical-ai/

Leseliste

Spesifikt
  1. Bharatha, A., et al. (2024). Comparing the performance of ChatGPT-4 and medical students on MCQs at varied levels of Bloom’s Taxonomy. Advances in Medical Education and Practice. Retrieved from https://www.tandfonline.com/doi/pdf/10.2147/AMEP.S457408
  2. Crowther GJ, Sankar U, Knight LS, Myers DL, Patton KT, Jenkins LD, Knight TA. (2023). Chatbot responses suggest that hypothetical biology questions are harder than realistic ones. J Microbiol Biol Educ. 24:e00153-23. Retrieved from:
    https://journals.asm.org/doi/full/10.1128/jmbe.00153-23
  3. Elsayed, S. (2023). Towards mitigating ChatGPT’s negative impact on education: Optimizing question design through Bloom’s taxonomy. arXiv. Retrieved from https://arxiv.org/pdf/2304.08176
  4. Govender, R. G. (2024). My AI students: Evaluating the proficiency of three AI chatbots in completeness and accuracy. Contemporary Educational Technology. Retrieved from https://www.cedtech.net/article/my-ai-students-evaluating-the-proficiency-of-three-ai-chatbots-in-completeness-and-accuracy-14564
  5. Habiballa, H., et al. (2025). Artificial intelligence (ChatGPT) and Bloom’s Taxonomy in theoretical computer science education. Applied Sciences, 15(2). Retrieved from https://www.mdpi.com/2076-3417/15/2/581
  6. Herrmann-Werner, A., et al. (2024). Assessing ChatGPT’s mastery of Bloom’s Taxonomy using psychosomatic medicine exam questions: Mixed-methods study. Journal of Medical Internet Research. Retrieved from https://www.jmir.org/2024/1/e52113/
  7. Leary, A., et al. (2023/2024). Strategies for effective teaching in the age of AI. University of Notre Dame Resource Library. Retrieved from https://learning.nd.edu/resource-library/strategies-for-effective-teaching-in-the-age-of-ai/
  8. Lodge, J. M. (2023). ChatGPT consistently fails (most parts of) the assessment tasks I assign my students. Here’s why. LinkedIn Pulse. Retrieved from https://www.linkedin.com/pulse/chatgpt-consistently-fails-most-parts-assessment-tasks-jason-m-lodge
  9. Mirzadeh, I., et al. (2024). GSM-Symbolic: Understanding the limitations of mathematical reasoning in large language models. Hugging Face Papers. Retrieved from https://huggingface.co/papers/2410.05229
  10. Mitchell, M. (2023). Can large language models reason? AI Guide. Retrieved from https://aiguide.substack.com/p/can-large-language-models-reason
  11. Newton, P., & Xiromeriti, M. (2024). ChatGPT performance on multiple choice question examinations in higher education: A pragmatic scoping review. Assessment & Evaluation in Higher Education, 49(6), 781–798. https://doi.org/10.1080/02602938.2023.2299059
  12. Spencer, J. (2023). The FACTS cycle for prompt engineering. Spencer Education. Retrieved from https://spencereducation.com/facts-cycle/
  13. Susnjak, T. (2022). ChatGPT: The end of online exam integrity? ResearchGate. Retrieved from https://www.researchgate.net/publication/366423865_ChatGPT_The_End_of_Online_Exam_Integrity
  14. Volante, L., DeLuca, C., & Klinger, D. A. (2023). ChatGPT challenge: 5 ways to change how students are graded. Queen’s Gazette. Retrieved from https://www.queensu.ca/gazette/stories/chatgpt-challenge-5-ways-change-how-students-are-graded
Generelt
  1. ChatGPT’s Study Mode Is Here. It Won’t Fix Education’s AI Problems
  2. What ChatGPT Study Mode gets right and wrong
  3. Could AI slow science?
  4. Why Understanding AI Doesn’t Necessarily Lead People to Embrace It
  5. AI and Threats to Academic Integrity: What to Do
  6. Is AI Really a Threat to Higher Education?
  7. There’s no simple solution to universities’ AI worries
  8. Instead of punishing students for using AI, colleges and universities must provide clear, consistent guidelines and rules
  9. Why AI isn’t the threat we think it is

ChatGPT – et taleført eksempel på kunstig intelligens, eller…?

En bloggbok av Per Arne Godejord

Nok et KI-bilde
Noen etiskejuridiskesikkerhetsmessige, helsemessige og kognitive problemstillinger knyttet til samtaleroboter, og hvorfor disse verktøyene ikke er eksempler på KI

Videre til boken

Neste side ikon