Epilog

«Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them»
– Frank Herbert, Dune, 1965

«In reading the history of nations, we find that, like individuals, they have their whims and their peculiarities; their seasons of excitement and recklessness, when they care not what they do. We find that whole communities suddenly fix their minds upon one object, and go mad in its pursuit; that millions of people become simultaneously impressed with one delusion, and run after it, till their attention is caught by some new folly more captivating than the first
Charles MacKay, 1841, (1a/ 1b)

David Rothenberg: «Gjør det vondt å tenke?»
Arne Næss Sr.: «Det gjør det, men det er en smerte vi ikke bør unndra oss. Det er en lidelse vi må lære å like
– Fra boken «Arne Næss – gjør det vondt å tenke?», av D. Rothenberg, 1992 (2)

«To the extent that we inhabit a culture where thought and writing have become effortless, we will also inhabit a culture incapable of responsible and redemptive relationships.»
– Jeffrey Bilbro, PhD, 2023 (3)

«Students don’t always know how to craft relevant prompts for the A.I. chatbots.»
– Professor John Spencer, 2023 (4)

«While current AI systems can be impressive, they are fundamentally limited to reactive behaviors or short-term capabilities, unable to form representations of themselves. Despite the allure of AI systems passing the Turing Test, this milestone in establishing AI consciousness has not yet been achieved
– Laszlo Szabo, 2024 (5)

Oppsummerende funderinger – På vei mot en konklusjon

Som Alberto Romero skriver i innleget 30 Things I’ve Learned About AI: «To know if an AI tool works, don’t read news headlines — try it yourself

Som informasjonsteknolog med litt over 30 års erfaring med både administrativ og undervisningsmessig bruk av IKT, er dette en påstand jeg uten videre kan si meg enig i. Men som samfunnsinformatiker er medias overskrifter og fornøyelige skriverier, og folk flest sine reaksjoner på disse, like interessante som det rent tekniske. Og ikke minst er det interessant å se at selv professorer lar seg friste til å bruke media som utgangspunkt for sterke meninger, uten selv å ha foretatt faktisk testing av ulike samtaleroboter med egne eksamensoppgaver.

Jeg har i denne bloggboken forsøkt å gi en oversikt over hva ChatGPT og lignende verktøy er for noe, og peker på noen sikkerhetsmessige, etiske, juridiske og læringsmessige problemstillinger knyttet til disse systemene. Videre beskriver jeg et sett med tester utført i perioden desember 2022 til desember 2023, og ytterligere tester gjennom 2024, samt januar 2025.

Overordnede spørsmål for testingen

Testene er i hovedsak utført ut fra følgende overordnede spørsmål:

  1. Kan ChatGPT (og lignende verktøy) produsere gode akademiske svar på omfattende arbeidskrav der fokus er på øvre nivå i Blooms taksonomi, innen mitt undervisningsfelt?
  2. Kan ChatGPT (og lignende verktøy) produsere gode faktabaserte stiler over et gitt tema?

Valg foretatt, og rasjonale for valgene

Jeg valgte å teste de ulike samtalerobotene på spesifikke arbeidskrav innenfor mine spesifikke fagområder som ligger i grenselandet mellom humaniora og samfunnsvitenskap, og der vurderingsformen er mappeevaluering.

Begrunnelsen for å først og fremst fokusere på den form for eksamensoppgaver (arbeidskrav) benyttet i studieprogrammet IKT og læring 1 og 2, samt fagemnet ORG5005, og ikke samtidig teste oppgaver fra andre fagfelt, var følgende;

  • Påstandene i media om at samtaleroboter nå kunne skrive gode universitetsbesvarelser uansett fagområde. Om dette medførte riktighet ville det bety ikke bare en utrolig endring av hva store språkmodeller normalt kan utføre, men også at arbeidskravene og vurderingsform i mine fagemner måtte radikalt endres.

Ved å begrense utvalget til oppgaver i mine fagemner og der vurderingsformen er mappeevaluering, forsøkte jeg å sikre en tett kobling mellom de testede arbeidskravene og den normale vurderingssituasjonen ved veiledning og sensur i mine fagemner.

Et slikt valg begrenser selvsagt generaliserbarheten av resultatene til andre fagområder og oppgavetyper/ vurderingsformer.

Jeg mener imidlertid at den internasjonale forskningen jeg viser til i denne bloggboken støtter mine funn om at samtaleroboter ikke klarer å presentere gode besvarelser på arbeidskrav/ eksamensoppgaver basert på høyere nivå i Blooms Taksonomi, og at mine funn da kan generaliseres til vurderingsformer der hovedfokus er på læringsprosessen og ikke kun på det endelige produktet, innen humaniora og samfunnsvitenskap.

I det overordnede spørsmålet knyttet til mine arbeidskrav benyttes formuleringen «gode akademiske svar». Dette er en lite presis og absolutt subjektiv formulering. Etter min mening bør en akademisk tekst framstå ryddig og sammenhengende, og med en grunnleggende disposisjon i form av en tydelig innledning, hoveddel, avslutning og kildeliste. Videre bør en besvarelse vise studentens evne til å drøfte ulike problemstillinger i lys av både ulike teorier og egen yrkespraksis.

I retningslinjene for mappevurdering ved IKT og læring 1 og 2, samt for fagemnet ORG5005, er dette beskrevet for studentene i kapittelet «Kvalitetskriterier» (felles for både IKT og Læring og ORG5005). Her understrekes at i besvarelsene er det viktig å vise evne til drøfting og at det å drøfte betyr at studenten belyser et tema fra ulike sider gjennom:

  • Ulike teorier knyttet til et spørsmål
  • Ulike tolkninger av samme teorier
  • Egen erfaring

    «Egen erfaring» er sentralt i mine fagemner og alle arbeidskrav er knyttet til det å kombinere teori med egen praksis som underviser eller beredskapsleder/ ansatt.

I tillegg skal alle besvarelser i IKT og læring og i ORG5005 avsluttes med et refleksjonsnotat, der studenten foretar en grundig gjennomgang av egen læringsprosess med arbeidskravet. Dette er beskrevet for studentene i retningslinjene for mappevurdering, kapittelet «Refleksjonsnotat – Utkast til veiledning». (I ORG5005 er kravene til egenrefleksjon noe mer utdypet enn for IKT og læringsstudiene, men er i det vesentligste de samme).

Videre knyttes formuleringen «gode» til de kvalitative beskrivelsene gitt av karakterene A, B og C, i karakterbeskrivelsen for samfunnsvitenskapelige fag/ sosiologi.

Avslutningsvis kan det også påpekes at mine fagområder tilhører EVU-segmentet og følgelig er mine studenter i hovedsak erfarne undervisere/ instruktører og beredskapspersonell. Kravene man kan stille til denne studentgruppen vil nødvendigvis være noe annerledes enn de man kan stille til førsteårsstudenter.

Andre fagområder vil ha andre definisjoner på/ krav til «gode besvarelser», og andre studenttyper, noe som kan minske overføringsverdien til fag og eksamensoppgaver utenfor mitt fagområde og studentgruppe.

I alle tilfeller der det fantes både en gratis- og en betalingsversjon, var det gratisversjonen som ble testet. Dette valget ble foretatt ut fra en antakelse av at de fleste studenter vil benytte gratisversjoner av de ulike samtalerobotene, særlig når de har full tilgang til utdanningsinstitusjonenes egne samtaleroboter (egenutviklede eller institusjonsavtaler med f.eks. Copilot). En slik antakelse kan imidlertid være feil, og den er ikke fundert i konkrete forskningsresultat.

GPT UiO og Sikt KI-Chat er organisasjonsversjoner, og Microsoft CoPilot (Bing Chat) ble testet både i ordinær versjon og i organisasjonsversjonen tilgjengelig for ansatte og studenter ved Nord universitet.

At de fleste samtalerobotene ble testet i gratisversjoner kan være en svakhet, da betalingsversjonene kan ha ytterligere funksjoner som styrker verktøyenes evne til å produsere relevante tekster. Og i noen tilfeller var det eksterne «preview-sider» som ble benyttet, noe som kan medføre en ytterligere svakhet.

Men ved gjennomgang av både populærvitenskapelige og vitenskapelige ressurser fant jeg lite som tyder på at betalingsversjonene av de ulike samtalerobotene har større evne til å finne korrekt informasjon, forstår input og output i større grad, eller har mindre grad av hallusinasjoner enn gratisversjonene når det gjelder å produsere besvarelser på arbeidskrav/ eksamensoppgaver basert på høyere nivå i Blooms Taksonomi.

Et av flere interessante momenter ved fremveksten av samtaleroboter er at det fra enkelte hold blir understreker viktigheten av å stille de riktige spørsmålene på den rette måten, eller som det kalles, «Prompt engineering» . Tanken er at det har ingen hensikt å stille samtalerobotene enkle spørsmål som f.eks. Googles søkemotor løser like greit, men at spørsmålene må skreddersys.

Jeg har i mine tester ikke drevet utstrakt «prompt engineering» ut fra en antakelse om at mange brukere, spesielt studenter uten dyp fagkunnskap, sannsynligvis vil bruke samtaleroboter uten omfattende prompt engineering. Dette blir dermed en realistisk tilnærming for å vurdere hvordan verktøyene fungerer i praksis.

Mitt rasjonale for at testingen av ulike arbeidskrav utført uten utstrakt bruk av «prompt engineering» er en realistisk tilnærming, er at effektiv bruk av en samtalerobot for å generere svar på universitetsoppgaver som krever analyse, syntese og evaluering vil være utfordrende for studenter som i utgangspunktet vil ha lave fagkunnskaper ved oppstart av arbeidskrav i mine emner. Slik jeg ser det, basert på egen undervisningserfaring, kan dette begrunnes blant annet med at:

  1. Forståelse av komplekse konsepter: Høyere nivåer av Blooms taksonomi krever en dyp forståelse av fagstoffet (og ikke minst at man først leser pensum, før man begynner på besvarelsen). Studenter med lavere fagkunnskaper vil erfaringsmessig ha vanskeligheter med å formulere spørsmål som kan lede til dyptgående og relevante svar.
  2. Kritisk tenkning: Arbeidskrav (eksamensoppgaver) som krever analyse og evaluering forutsetter evnen til kritisk tenkning. Dette innebærer å kunne vurdere informasjon, identifisere sammenhenger og trekke konklusjoner, noe som kan være utfordrende for studenter uten et solid faglig grunnlag.

Dermed kan det, etter min mening, antas at studenter som i utgangspunktet har begrensede fagkunnskaper ved oppstart av et fagemne, vil ha problemer med å foreta effektiv promting.

Videre har det liten hensikt at man som fagperson tester samtaleroboter med utstrakt promting, når målet er å se hvorvidt en student – som nødvendigvis mangler forelesers dybdekunnskap – muligens kan klare å få gode svar fra en samtalerobot på arbeidskrav basert på høyere nivå i Blooms Taksonomi.

Samme rasjonale gjelder for de enkle testene knyttet opp mot emner spesifikt for norske forhold (Norsk 70-talls litteratur, Sivilforsvaret, etc.), samt en enkel «gåte-test», test på verktøyenes evne til å finne konkret og korrekt informasjon knyttet til etternavn og et forsøk på gjenskape et konkret resultat beskrevet i Digi.no. Særlig når det gjelder «båttesten» (Digi.no) er det vanskelig å tenke seg at grundig promting er aktuelt når man ikke er motorkyndig. Var man det ville man jo ikke trenge en samtalerobot, men ganske enkelt sjekke basert på egen erfaring og kunnskap.

Så kan en jo stille spørsmålet; hva med de studenter som har et godt grep om fagområdet fra før? Disse vil jo kunne bedrive effektiv promting, og dermed få en samtalerobot til å formulere gode svar? Og det er utvilsomt riktig. Men samtaleroboter har ikke evnen til å foreta reelle vurderinger, syntese eller analyse. Så en faglig dyktig student kan utnytte «sekretær-funksjonen» til en samtalerobot, men vil samtidig vite at verktøyet ikke kan brukes til å produsere en helhetlig besvarelse i fagområder der det ikke uten videre finnes fasitsvar, og der eksamensoppgavene krever noe mer enn rene gjengivelser.

I noen tilfeller har jeg reformulert oppgavetekster knyttet til mine fagområder for å se om resultatene ble bedre, men dette virket i mine forsøk å ikke ha noen som helst betydning for resultatet.

Men manglende promting er muligens nok en svakhet ved mine tester, da grundig promting kan påvirke relevansen og nøyaktigheten til svar som samtaleroboter gir.

Jeg har imidlertid så langt ikke funnet belegg for at promting øker samtaleroboters evne til å løse eksamensoppgaver knyttet til høyere nivå i Blooms Taksonomi i tilgjengelig vitenskapelig litteratur.

Konklusjon

«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor, 2023 (6)

«Instead of minimizing users’ tendency to anthropomorphize conversational A.I. systems, many businesses are opting to maximize it. The more human-like a business’ chatbot seems, the more likely it is that users will like interacting with the chatbot, perceive it as friendly, believe they can relate to it, trust it, and even form some approximation of a social bond with it. For many businesses, the prospect of capturing an audience with a conversational A.I. system – a system they control and use for marketing and other commercially manipulative purposes – is irresistible.»
– Rick Claypool, 2023 (7)

«Remember, LLMs compute the probability of what word should come next in a sequence based on the parameters given in a prompt. This differs from the expectation (and illusion) that they understand and answer queries.»
–  Chris Miciek, 2023 (8)

«A lot of people anthropomorphize these things because they ‘speak English.’ No, they don’t. It doesn’t speak English. It does a lot of math.»
– Rick Battle, 2024 (9)

«we found no evidence of formal reasoning in language models …. Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%!»
– Mehrdad Farajtabar, PhD, 07.10.2024 (10/11/12)

«Lowering the bar for AGI only muddles progress. True AGI requires reasoning frameworks that ensure correctness, adaptability, and logical consistency. The dream of AGI will not be realized by statistical tricks but by building systems capable of true logical reasoning.»
– TauLogicAI, 2024 (13)

Både mine tester, og internasjonal forskning på hvordan samtaleroboter behandler eksamensoppgaver knyttet til høyere nivå i Blooms taksonomi, viser at mediehistoriene om at dette var verktøy som lett kunne skrive gode universitetsbesvarelser ikke stemmer.

Undersøkelser utført av forskere i USA av påstander om at ChatGPT, og lignende verktøy, klarte bachelor og mastereksamener viser at også dette var «sannheter» med store modifikasjoner.

Det finnes ingen forskningsbaserte grunner til å tro at samtaleroboter på mystisk vis vil utgjøre en alvorlig «trussel» mot norske bachelor – og masteravhandlinger innen samfunnsvitenskap og humaniora, der analyse og vurdering er sentrale element. Dermed finnes det heller ingen forskningsbaserte grunner for å kreve spesielle tiltak knyttet til veiledning og eksaminasjon av disse. Det samme vil gjelde for ordinære hjemmeeksamener eller mappeevaluering av veiledete besvarelser der eksamensoppgavene/ arbeidskravene er konstruert i tråd med høyere nivå i Blooms taksonomi.

Både mine egne forsøk, og internasjonal forskning, viser at samtaleroboter klarer å levere svar på oppgaver som har sitt fokus på det å gjengi, beskrive og definere, og på oppgaver som krever sammenfatning og forklaring (Lavere nivå i Blooms Taksonomi). Men mine egne forsøk viser at det samtaleroboten fremkommer med ikke nødvendigvis er godt nok til å gi høyeste karakter (C, B eller A), selv der fagområdet/ fagbegrepene er velkjent og godt omtalt på Internett. Her vil det imidlertid kunne være ulikheter fra fagområde til fagområde, og at de samtaleroboter jeg har testet ikke gir gode resultat for mine oppgavetekster betyr ikke at de ikke kan gi gode svar (og dermed oppnå gode karakterer) i andre typer eksamensoppgaver basert på lavere nivå i Blooms Taksonomi.

Egne forsøk med de utvalgte samtalerobotene viser at en samtalerobot kan både legge inn kildehenvisninger i tekst og sette opp litteraturliste i tråd med APA-stilen. Men forsøkene viser også at samtaleroboters statistiske beregninger like gjerne fremkommer med falske kilder, som ekte.

ChatGPT, og de andre samtalerobotene jeg har testet, imponerer heller ikke når det gjelder å produsere faktabaserte stiler. I disse testene var «hallusinasjoner» særlig fremtredende. Men her vil mye selvsagt kunne avhenge av tematikken og hvilke krav som lærere i grunn- og videregående skole stiller til en stil.

Samtalerobotens evne til å besvare en enkel «gåte-test», deres evne til å finne konkret og korrekt informasjon knyttet til etternavn og et forsøk på gjenskape et konkret resultat beskrevet i Digi.no, var enkle forsøk som understreker samtalerobotenes manglende evne til å hente frem annen informasjon enn det de statistiske beregningene kan finne rent konkret i sitt innlagte datagrunnlag eller ved enkle internettsøk. Resultatene understreker at det ikke foretas noen form for resonering. Alt som foretas er statistisk beregnede sammensetninger av bokstaver, gitt bokstavsammensetningen av brukerens input.

Egne tester, og internasjonal forskning, viser at selv etter to år med utvikling har samtalerobotene stadig ingen evne til reell resonering eller til annen form for reell tankevirksomhet.

Vi er med andre ord stadig langt, langt unna den teoretiske drømmen om en generell kunstig intelligens (AGI).

«When we consider the way that LLMs work, with the input query used to provide a probability fit across the weighted nodes that make up its vector space, we can see that the generated output is effectively that of an oversized word prediction algorithm. This precludes any possibility of intelligence and thus cognitive awareness of ‘truth’. Meaning that even if there is no intent behind the LLM, it’s still bullshitting, even if it’s the soft (unintentional) kind. When taking into account the agency and intentions of those who created the LLM, trained it, and created the interface (like ChatGPT), however, we enter into hard, intentional bullshit territory. It is incidentally this same bullshitting that has led to LLMs being partially phased out already, with Retrieval Augmented Generation (RAG) turning a word prediction algorithm into more of a fancy search machine. Even venture capitalists can only take so much bullshit, after all
– Maya Posch, 2024 (14)

ChatGPT, og andre samtaleroboter, er først og fremst en «bullshit generator», slik professor Arvind Narayanan (2022) ved Princeton University påpekte (1).

Men denne og lignende samtaleroboter kan likevel i noen situasjoner være nyttige til en første informasjonsinnhenting (under forutsetning av at man så sjekker videre i mer kontrollerbare kilder). Samtaleroboter kan også være nyttige som oversettere, til ord- og begrepsforklaringer (forutsatt at begrepet er velkjent), og de kan foreta oppsummeringer av tekst, osv. Videre kan de være svært gode verktøy til å hjelpe til med gi en god struktur på en besvarelse. Dette siste gjør jo at vi fagansvarlige nå uten videre kan ta som en selvfølge at en besvarelse på universitetsnivå, er grundig strukturert og at dette ikke er noe som gir uttelling karaktermessig. (Mens en dårlig strukturert besvarelse, selvsagt fortsatt gir nedtrekk karaktermessig).

Og for brukere med gode fagkunnskaper kan en samtalerobot være en tidseffektivt innledning til å få unna ulike oppgaver.

Og en meget interessant studie utført i oktober 2024 viser at ChatGPT 4 var bedre til å diagnostisere sykdommer enn legene som deltok i forsøket. Dette er et eksempel som minner om det man på slutten av 80-tallet beskrev som nytteområdet for «ekspertsystemer», særlig konstruert for å nettopp støtte leger i deres diagnosering. I denne studien ser vi for øvrig det motsatt av det Mikhail Burtsev, Martin Reeves, og Adam Job beskriver i sitatet vist til tidligere i dette kapittelet. Mens gruppen av konsulenter fra Boston Consulting Group som benyttet ChatGPT lot seg overbevise selv om svarene var feil, lot legene i studien fra Ethan Goh m. fl. seg ikke overbevise av bedre forslag til diagnoser.

Media var raskt ute med overskrifter av typen «Chat GPT danker ut ekte leger», men dette er en tabloid forståelse, uten forankring i virkeligheten. Som forfatteren av denne studien selv skriver:

«Results of this study should not be interpreted to indicate that LLMs should be used for diagnosis autonomously without physician oversight. The clinical case vignettes were curated and summarized by human clinicians, a pragmatic and common approach to isolate the diagnostic reasoning process, but this does not capture competence in many other areas important to clinical reasoning, including patient interviewing and data collection. Furthermore, this study was acontextual, and clinicians’ understanding of the clinical environment is fundamental for high-quality decision-making.»

Et annet interessant (og innovativt) bruksområde er det førsteamanuensis June Borge Doornich beskriver i «Bygde egen ChatGPT for å formidle forskning. — Vi må tenke nytt

Og der det faktisk oppstår nytte er dette knyttet til at store språkmodeller (LLM) er glitrende mønstergjenkjennere. Det er derfor de i mange år har vært benyttet i banker for å f.eks. indikere mistenkelige transaksjoner eller mulig identitetstyveri. Det er heller ikke noe nytt at slike system danner basis for at en nettleser, en SMART-mobil eller en søkemotor foretar statistiske beregninger av hva en bruker forsøker å taste inn i en melding eller i en nettleser.

En av utfordringene knyttet til samtaleroboter er at folk flest forankrer sine holdninger til disse i det de leser i media, og ikke i forskningsbasert kunnskap. Dermed får vi en rekke tilfeller der brukere fullt og fast tror at bare fordi et dataprogram reagerer med menneskelignende respons, forstår programmet hva vi ber om og kan løse komplekse problemer. Men dels er det begrensninger i hva en språkmodell pakket inn i et grensesnitt av typen samtalerobot kan løse og dels krever effektiv bruk av slike system at brukeren selv har gode og solide fagkunnskaper om det som etterspørres, noe den jevne bruker av ChatGPT og lignende verktøy ofte ikke har.

Som professor Lucy Cheke fra universitetet i Cambridge sier det; “This becomes particularly problematic as people more and more rely on these systems to answer complex questions to which they would not be in a position to spot an incorrect answer

Og som Inga Strümke uttalte til Khrono i juli 2024; «Eg trur at KI kjem til å gjere dei dårlege dårlegare, og dei gode betre. Om du ikkje har peiling og brukar generativ KI, er det lett å la seg lure til å tru at du har forstått noko du i realiteten ikkje har arbeidd godt nok med. Har du alt god kontroll på feltet og er i stand til å vurdere ulike perspektiv, kan generativ KI by på alt frå nye idear til sekretærhjelp

Men selv der en bruker «har kontroll» på et fagfelt kan bruken av samtaleroboter lede til feilkonklusjoner, rett og slett fordi den statistiske sammensetningen av bokstaver er så «menneskelig» – og dermed overbevisende – at selv profesjonelle yrkesutøvere kan bli lurt.

Så til tross for at det åpenbart finnes nytteverdi i det vi kaller samtaleroboter, så representerer ikke disse verktøyene noen form for «make and break» innen lavere eller høyere utdanning. Tvert i mot; de representerer en distraksjon fra reell kunnskapsbygging.

Og helt til slutt; samtaleroboter er lysår unna noe som ligner på intelligens, og fortjener derfor ikke betegnelsen KI.

«Intelligence is what you use when you don’t know what to do.»
– Jean Piaget (15)

«These tools could be driving down IQs since they eliminate the need for us to think by immediately giving us an answer, with no effort on our part whatsoever. (…) That means people don’t need to solve problems quite so often, and that’s concerning, since intelligence is basically the ability to solve problems.»
– Professor Serge Larivée, 2023 (16)

«ChatGPT er ikke vennen din. Den er bare en datamaskin som er veldig god til å regne.»
– Ståle Lindblad, 2024 (17)

«Some people will start recognizing that it was always a pipe dream to reach anything resembling complex human cognition on the basis of predicting words.»
– Professor Daron Acemoglu, 2024 (18)

«This isn’t new technology. Those tools have been around for years. They’re not “thinking” or answering questions. They’re pattern matching. Which is what everything people call AI is doing, too
– Chris Ferdinandi, 2024 (19)

«We are still basically surrounded by GPT-4 level models with incremental changes, and nothing that OpenAI themselves thinks is worthy of the GPT-5 label, There are many such models now; there is a price war. There is very little moat. There is still no robust solution to hallucinations. Corporate adoption is far more limited than most people expected, and total profits across all companies (except of course hardware companies like NVidia, which profits from chips rather than models) have been modest at best. Most companies involved have thus far lost money
– Professor Gary Marcus, 2025 (20)

«Higher confidence in GenAI’s ability to perform a task is related to less critical thinking effort. When using GenAI tools, the effort invested in critical thinking shifts from information gathering to information verification; from problem-solving to AI response integration; and from task execution to task stewardship
– Hao-Ping (Hank) Lee, et.al., 2025 (21)

«The very concept of AGI is bass-ackwards. AGI is a solution to which specific problem? It has no specific mission definition, so what exactly are we building it for- Chits n’ giggles? Okay we want to «building something to generally replace a human» why? For exactly what? …and how exactly is that economical or even desirable?»
– David Hsing, 2025 (22)

«AI was born on a fateful day in the Summer of 1956, conceived by four ambitious researchers. It died the same day
– Alberto Romero, 2025 (23)

«We are surrounded by hysteria about the future of Artificial Intelligence and Robotics. There is hysteria about how powerful they will become how quickly, and there is hysteria about what they will do to jobs
– Professor emeritus Rodney Brooks, 2017 (24)

I denne bloggboken er både testene jeg har utført, svarene som fremkom og den litteratur – både vitenskapelig og populærvitenskapelig – jeg har støttet meg på åpent tilgjengelig. Det som her er fremført er mine faglige tolkninger, og andre forelesere/ forskere kan ha andre tolkninger.

Du som student, og i egenskap av å være lærer/ instruktør/ kursholder eller opplæringsansvarlig, vil kanskje nå ha fått din førforståelse utfordret. Men det betyr ikke at det du tidligere har ment er feil. Men kanskje har du nå fått litt mer å fundere på?

«Hva skal vi med tida vi sparer?»
– Stein P. Aasheim, 2024 (25)

Microsoft Copilot oppsummerer sitatene fra dette kapittelet

LESELISTE

I de ulike kapitlene er det lenket til en rekke interessante artikler og innlegg som i seg selv utgjør en god leseliste. I tillegg til de ulike leselistene, inklusive den til slutt i dette innlegget, anbefaler jeg at man også ser nærmere på følgende:

  1. For de som vil lære mer om KI anbefaler jeg «AI: A Guide for Thinking Humans» av professor Melanie Mitchell. Professor Gary Marcus sine tanker på «Marcus on AI» er også vel verdt å lese.
  2. Følg også medThe Nature of Intelligence, en podcast serie fra Santa Fe Institute.
  3. Khrono sin KI-skole er også verdt å følge med på.
  4. For å få et innblikk i siste nytt om forskning på store språkmodeller og samtaleroboter/ ChatGPT bør en sjekke ut arXiv.org.
  5. For de som liker underholdende TV-serier med intelligent (relativt sett) IT-teknologisk innhold der futuristisk AI er i fokus, kan TV-serien «Person of interest» anbefales, og i den forbindelse er følgende artikkel ytterst interessant: «Decoding AI Ethics through ‘Person of Interest’: How the Show Anticipated Today’s AI Concerns» 
  6. En bør også følge med på utviklingen av verktøy som skaper innhold basert på dine egne data, og her er Google Notebook LM et interessant eksempel.
I tillegg kan en se på disse ressursene:
  1. ChatGPT and other language AIs are nothing without humans – a sociologist explains how countless hidden people make the magic
  2. Who and What comprise AI Skepticism?
  3. EXCLUSIVE: AI Insider reveals secrets about artificial general intelligence
  4. This is the beginning of the end of the generative AI boom
  5. The most powerful takedowns of generative AI, from those who know its impacts best
  6. Hva skal mennesket drive med hvis KI tenker for oss?
  7. 2 Years Of ChatGPT: 4 Lessons About AI — And Ourselves
  8. Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data
  9. Sentient AI will never exist via machine learning alone
  10. Kan generativ kunstig intelligens opplyse og danne oss?
  11. Dannelse og kritisk tenkning i møte med kunstig intelligens
  12. KI er en fristelse som er umulig å motstå. Våre barn er hardest rammet
  13. Will Artificial Intelligence Get in the Way of Achieving Gender Equality?
  14. Dårlig AI-generert kode skaper trøbbel: «Hører mer og mer om det»
  15. EUs nye regler for KI vil påvirke akademia og forskning
  16. Chat GPT – vår tids «Titanic»?
  17. KI endrer internett – og fyller det med «søppel»
  18. Det er ikke kunstig intelligens som vil ta jobben din, det er en person som bruker kunstig intelligens
  19. Why do people use ChatGPT? Exploring user motivations for generative conversational AI
  20. Oslo-skolen bør kaste ut ChatGPT!
  21. Ekspert tror KI-visjoner er overdrevne
  22. Er ChatGPT og andre AI-tjenester en revolusjon?
  23. Bruk av generativ kunstig intelligens i offentlig sektor
  24. ChatGPT struggles to answer medical questions, new research finds
  25. Stable Diffusion Prompt Book

«Siste nytt» om ChatGPT og openai (utvalg)

  1. The Register on ChatGPT
  2. The Register on OpenAI (and AI)
  3. Euronews on ChatGPT
  4. Euronews on OpenAI (and AI)
  5. CBC News on ChatGPT
  6. Wired on ChatGPT
  7. The Independent on ChatGPT
  8. NRK om ChatGPT og KI
<Forrige kapittelTil startsiden>