Den farlige drømmen om KI

En forkortet og omredigert versjon av dette innlegget er publisert på Altinget.no

That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.

Professor Tressie McMillan Cottom, 2025 (1)

Tross hypen rundt såkalt «kunstig intelligens», viser både egne tester og faglige vurderinger fra både nasjonale og internasjonale forskere, at samtaleroboter som ChatGPT mangler både intelligens og innsikt. De er avanserte tekstgeneratorer som imiterer språk uten forståelse, og dagens medieskapte myter om tenkende maskiner kan fort bli en beredskapsmessig trussel.

Innledning

«No, Bloomberg News, ChatGPT did not get an MBA. No, NBC News, ChatGPT did not even pass an exam.»
– Professor Melanie Mitchell (2)

«LLM tech is enjoying a moment in the sun, branded as «artificial intelligence» and inserted into half the world’s products and counting. The promise of an always-available expert who can chew the fat on a range of topics using conversational natural-language question-and-response has proven popular – but the reality has fallen short, thanks to issues with «hallucinations» in which the answer-shaped object it generates from a stream of statistically likely continuation tokens bears little resemblance to reality.»
– Gareth Halfacree (3)

«LLMs are models of human written communication – they are built to replicate perfectly the same biased ‘ideological agendas’ present in their training data,» (…) «And the nature of training data is that it has to exist – literally, in order for an LLM to have a perspective on a topic, it needs to consume material about that topic. Material is never neutral. And by definition, the LLM alone cannot balance consumed material with the ABSENCE of material.»
– Joshua McKenty (4)

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår»
– Bjørn Stærk (5)

I løpet av de siste årene har samtaleroboter som ChatGPT, Copilot, Gemini ol. blitt løftet frem som teknologiske mirakler og verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Men bak medieoverskriftene og de euforiske uttalelsene fra politikere og næringslivsaktører skjuler det seg en virkelighet som er langt mer nyansert, til dels ytterst kjedelig og absolutt uten noen form for intelligens.

Som informasjonsviter med et særlig blikk for informasjonsteknologiens pedagogiske og samfunnsmessige implikasjoner siden 90-tallet, har jeg over to år testet 14 ulike samtaleroboter på eksamensoppgaver knyttet til fagfeltet Samfunnsinformatikk.

Samtlige oppgaver krevde analyse, syntese og evaluering og var utformet for å måle studentenes evne til faglig refleksjon knyttet til helt spesifikt fagstoff, evne til å knytte dette til egen yrkesvirkelighet, evne til å reflektere over egen læring og evne til å finne gode (og etterprøvbare) fagkilder for å bygge opp under egne faglige refleksjoner.

Resultatene var entydig negative og gjorde det krystallklart at disse verktøyene verken er intelligente eller kreative. Og de er absolutt ikke faktainnhentere. De er avanserte statistiske tekstgeneratorer klart bundet av algoritmer og mønstergjenkjenning, ikke forståelse.

Både mine tester, og internasjonal forskning på hvordan samtaleroboter behandler eksamensoppgaver knyttet til høyere nivå i Blooms taksonomi, viser at mediehistoriene om at dette var verktøy som lett kunne skrive gode universitetsbesvarelser uansett fagemne ikke stemmer. Og amerikanske forskere har for lengst vist at påstandene om at ChatGPT, og lignende verktøy, klarte bachelor og mastereksamener ikke holdt vann.

Som førsteamanuensis Inga Strümke påpekte i NRK i mai 2025; «Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten». Til tross for dette teknologiske faktum ser vi stadig – selv nå i 2025 – at enkelte akademikere mener at samtaleroboter kan besvare alle typer eksamensoppgaver og at de samme systemene kan avsløre tekster skrevet av «KI». At dette er fantasier som for lengst er tilbakevist, virker å være helt ukjent.

Professor Jon Whittle er en av mange forskere som prøver å holde fagområdet Kunstig Intelligens på et saklig og vitenskapelig nivå. I sin forelesning «There’s no such thing as Artificial Intelligence» påpeker han følgende:

Skjermdump av slide

Men til tross for forskere som professor Whittle og det faktum at absolutt ingen av de vidløftige påstandene knyttet til samtaleroboter er innfridd, lever mytene om KI videre og samtaleroboter er plutselig blitt inngangsporten til drømmen om tenkende maskiner.

Manglende vitenskapelig kompetanse

«The current idea that chatbots are «AI» and claims that computers can now truly think is a reflection of the imbalance between rapid technological progress and the widespread lack of scientific literacy. In the past, people fervently believed in demons and UFOs. Today, it’s AI»
– Per A. Godejord (Kommentar på BlueSky)

Utsagnet mitt over bygger på en observasjon Carl Sagan gjorde på slutten av 1990-tallet; at det var et kritisk behov for utbredt vitenskapelig kompetanse i en verden som i stadig større grad formes av vitenskap og teknologi. I dag er denne teknologiske påvirkningen, i det minste i den velstående delen av verden, enda mer fremtredende.

Sagan advarte om at et samfunn som er sterkt avhengig av teknologi, men mangler forståelse for den, er iboende ustabilt og utsatt for manipulasjon. Han mente at manglende vitenskapelig forståelse gjør folk sårbare for pseudovitenskap og feilinformasjon, noe som hemmer evnen til å ta informerte beslutninger.

Etter min mening er denne bekymringen like relevant i dag, om ikke mer. Dette ser vi særlig i det stadig pågående mediehysteriet rundt fremveksten av samtaleroboter av typen ChatGPT og disses videreutviklede versjoner.

Det virker for meg som behovet for det Carl Sagan kalte et «baloney detection kit» er enda større nå enn det var på 90-tallet. Og da særlig knyttet til de ulike påstandene om at ChatGPT og lignende verktøy kan svare ekspertmessig på alle typer universitetsoppgaver, på mystisk vis avsløre «KI-tekster» og at samtalerobotenes utvikling betyr at vi nå har intelligente datamaskiner.

Denne type påstander er ikke bare vitenskapelig uholdbare, de kan være farlig.

Mytene om KI er en samfunnsrisiko

«Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them»
– Frank Herbert, Dune, 1965 (6)

«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor (7)

Det mest alvorlige i de siste årenes mediefantasier knyttet til samtaleroboter er ikke teknologien i seg selv, men hvordan vi forstår og bruker den. Når både media, politikere og utdanningsinstitusjoner ukritisk videreformidler ideen om at samtaleroboter er intelligente og at vi som del av dette nå plutselig har utviklet intelligente maskiner, bidrar vi til en teknologisk analfabetisme som kan få alvorlige konsekvenser.

Så og si samtlige mennesker i dette landet er storkonsumenter av digitale medier. Men det er ikke gitt at dette utstrakte konsumet gir seg utslag i særlig stor forståelse, verken blant eldre eller unge, for hva digital teknologi i bunn og grunn rent faktisk er.

Og i en tid preget av omfattende digital sårbarhet, økende hybrid krigføring og informasjonskrig, er det avgjørende at befolkningen har en realistisk og kunnskapsbasert forståelse av hvordan informasjonsteknologi faktisk fungerer. En slik forståelse vil være det sikreste botemiddel mot digitale trusler fra både kriminelle og fiendtlige nasjoners etterretning.

Særlige våre ikke-teknologiutdannede politikere trenger å forstå at KI ikke er ett verktøy, men et kontroversielt sekkebegrep som omfatter en hel rekke ulike IT-systemer.

Samtalerobotene som media og våre politikere er så begeistret for, er utelukkende utviklet for å skrive gode setninger, og har absolutt ingen anelse om vår eksistens. En datamaskin kan verken føle eller tenke, og resultatet av våre spørsmål er verken intelligens eller resonnering, og slett ikke forståelse. Det ChatGPT og lignende verktøy leverer, er lynhurtig autofullføring av tekst. Og disse verktøyene er, på samme måte som sosiale medier, konstruert for å være avhengighetsskapende.

Ingen av de ulike systemene/ verktøyene som er utviklet som del av forskningsfeltet KI, vil i seg selv nødvendigvis være nyttig i alle deler av det offentlige og det private, med mindre en klar strategi for IT-bruk i den enkelte virksomhet er på plass. Og bare fordi media og deler av næringslivet, med våre politikere som lydige etterplaprere, nå kaller ethvert IT-system for «KI», betyr ikke at vi per nå rent faktisk har utviklet digitale system som er i nærheten av intelligens.

I dagens kompliserte verden trenger vi ikke flere myter om såkalt «KI», ei heller forbud mot – eller restriksjoner på – bruken av samtaleroboter og andre typer assistent-verktøy. Vi trenger digital dannelse, teknologikritikk og et utdanningssystem som setter individet, menneskelig innsikt og refleksjon i sentrum og ikke maskinens evne til å etterligne slike egenskaper.

Vi trenger å utdanne og bevisstgjøre folk slik at de slutter å overlate egen dømmekraft til datamaskiner eller hengir seg til fantasier om at statistiske «regnemaskiner» er velegnet som psykologer. En utstrakt bruk av lettvinte løsninger a la ChatGPT gjør oss dummere, og dermed til et lettere bytte for fiendtlige aktører.

Kanskje er det derfor på høy tid å hente frem, og tenke litt over, Carl Sagan sine ord fra boken «The Demon-Haunted World: Science as a Candle in the Dark»:

«We have designed our civilization based on science and technology and at the same time arranged things so that almost no one understands anything at all about science and technology. This is a clear prescription for disaster.»

Leseliste

  1. There’s no such thing as Artificial Intelligence
  2. The AI expert who says artificial general intelligence is nonsense
  3. Artificially voiced intelligences: voice and the myth of AI
  4. Artificial Intelligence: A Clarification of Misconceptions, Myths and Desired Status
  5. A Comprehensive Review of AI Myths and Misconceptions
  6. Decoding AI Misconceptions and Their Impact on Creativity, Culture, and Equity
  7. Navigating the AI/ML Hype: Applying Carl Sagan’s Baloney Detection Principles
  8. ChatGPT and other language AIs are nothing without humans – a sociologist explains how countless hidden people make the magic
  9. ChatGPT is not “true AI.” A computer scientist explains why
  10. Can computers think? No, they cant actually do anything
  11. Why Our Machines Will Never Be as Smart as We Are
  12. Why a computer will never be truly conscious
  13. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do
  14. Will computers overtake humans in intellectual ability?
  15. The Dark Addiction Patterns of Current AI Chatbot Interfaces
  16. Psychiatric Researchers Warn of Grim Psychological Risks for AI Users
  17. As AI becomes more popular, concerns grow over its effect on mental health
  18. Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models
  19. Is Your Privacy at Risk? Understanding the Threat of GenAI Chatbots
  20. Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance
  21. Perceptions and Acceptance of Artificial Intelligence: A Multi-Dimensional Study

Forfatter: pagodejord

Førstelektor i IKT ved Handelshøyskolen Nord, utdannet i IKT/ IKT-sikkerhet og Jus med spesialisering i Politirett og Arbeidsrett, tidligere lokalpolitiker for Høyre, tjenestepliktig befal i Sivilforsvaret (pensjonert), over 20 års erfaring med digital distribuering av undervisning og studentaktiv undervisning.