«An example of machine learning, generative ‘AI’ is neither artificial nor intelligent. Generative AI systems are trained on vast corpuses of data created by humans, and, despite objections to the contrary, will require human input for widespread adoption.
(…)
Had you called large language models, whose development was made possible by the transformer architecture developed in 2017, ‘generative AI’ you would have no doubt received some strange looks. Yet, just a few years later, such models have undergone a quiet rebrand as ‘text-to-text generative AI.’»
– Harry Law, forsker ved University of Cambridge, 2023 (1)
«The challenge I see is that AI has led to quite a fundamental bifurcation in society. One group believes it’s akin to the second coming of Christ whereas another group thinks we’re on the way to Skynet and the extermination of humanity. Although there are some strong thinkers on both sides, many have very little clue of what they’re talking about and use the concept completely inaccurately.»
– Jan Bosch, 2023 (2)
«we found no evidence of formal reasoning in language models …. Their behavior is better explained by sophisticated pattern matching—so fragile, in fact, that changing names can alter results by ~10%!»
– Mehrdad Farajtabar, PhD, 07.10.2024 (3/4/5)
«This isn’t new technology. Those tools have been around for years. They’re not “thinking” or answering questions. They’re pattern matching. Which is what everything people call AI is doing, too.»
– Chris Ferdinandi, 2024 (6)
Innledning
Etter at ChatGPT i november 2022 ble løftet frem på en bølge av mediefantasier om at man plutselig hadde utviklet kunstig intelligens, og systemer som nå kunne resonere, har de fleste (antakelig nå alle) universitet- og høgskoler fått på plass egne retningslinjer for hvordan samtaleroboter og andre typer genereringsverktøy skal benyttes, eller ikke benyttes. Skjønt, presise betegnelser som samtalerobot eller billed- og videogenereringsverktøy er sjelden eller aldri i bruk. Det er enten samlebegrepet KI, eller «Generativ kunstig intelligens», som nå benyttes ukritisk som overskrift på de ulike reglene. At det er stor uenighet blant forskere om hvorvidt begrepet «generativ kunstig intelligens» i det hele tatt gir noen mening, nevnes ikke.
Ved Nord universitet er bruken av såkalt KI regulert i:
- Forskrift om studier og eksamen ved Nord universitet, paragraf 9-1, punkt 5 e, som definerer som fusk: «Å generere besvarelse ved hjelp av kunstig intelligens, og levere den helt eller delvis som egen besvarelse, dersom ikke annet er opplyst for den enkelte eksamen.»
- Retningslinjer for studenters bruk av generativ kunstig intelligens
Nord universitet sin eksamensforskrift og retningslinjer er «overbygningen» for hva som tillates/ ikke tillates ved studieprogrammene IKT og læring 1 og 2, samt fagemnet ORG5005.
Operasjonaliseringen av eksamensforskriften og retningslinjene er i IKT og læring 1 og 2, samt ORG5005, som videre beskrevet nedenfor.
Alle hjelpemidler tillatt, men…
I de to studieprogrammene IKT og læring 1 og IKT og læring 2, samt fagemnet ORG5005 – Digital beredskap (del av MASIK), er det ikke forbudt å eksperimentere med samtaleroboter (eller andre former for såkalt KI) som del av arbeidet med det enkelte arbeidskrav. Men det er ikke tillatt å levere en besvarelse (teoretisk eller praktisk) til mappestenging (eksamen) som helt eller delvis er utviklet av en samtalerobot. Dette er egentlig ikke noe nytt da det jo alltid har vært regnet som fusk å levere en besvarelse skrevet av andre enn seg selv.
Hva som er akseptabel/ ikke-akseptabel bruk for studenter ved IKT og læring 1 og 2, samt ORG5005, er beskrevet som del av to FAQer og der begge har et kapittel kalt «Særskilt om KI og eksamen».
«KI» er benyttet som begrep for å være på linje med begrepsbruken ved Nord universitet og for ikke å skape forvirring blant studentene som nå er vant med at «KI» er gjeldende begrep.
- FAQ Bruk av KI ved endelig innlevering (ORG5005)
- FAQ Bruk av KI ved endelig innlevering (IKTL 1 og 2)
Som en ser er det lov å bruke samtaleroboter for å sjekke gramatikk, ord, struktur, ol., men ikke å levere hele eller deler av besvarelsen utviklet av en samtalerobot.
Fokuset er først og fremst på samtaleroboter da det er dette som er utfordringen for de obligatoriske arbeidskrav tilhørende IKT og læring og ORG5005.
Det er studenten, ikke samtaleroboten som skal skrive/ utvikle besvarelsene
Den endelige besvarelsen (både den teoretiske og den praktiske delen) levert til mappestenging (eksamen) i det enkelte fagemne i IKT og læring 1 og 2, samt i Org5005, skal vise de kunnskapene og ferdighetene den enkelte student besitter. For at den som sensurerer besvarelsene skal kunne måle dette, må besvarelsen være et selvstendig arbeid og skrevet med studentens egne ord.
Altså: Studenten må på egen hånd analysere, beskrive eller forklare ting, drøfte teorier eller argumentere for noe og formulere dette med egne ord, forankret i både i egen yrkeserfaring/ hverdag og i relevant fagstoff. Det er (blant annet) når studenten bruker sine egne ord, at denne viser at denne har forstått arbeidskravets oppgaver og har lest pensumlitteraturen (både oppsatt og selvvalgt). Dette vil selvsagt også gjelde for de praktiske delene av ulike arbeidskrav. Det er studentens evne til å utvikle et multimedieprodukt eller et dataspill, som skal måles.
Følgelig er det selvsagt fusk dersom det leveres besvarelser der hele eller deler er forfattet/ utviklet av en samtalerobot.
En samtalerobot kan ikke være en kilde eller medforfatter
Vi godtar heller ikke samtaleroboter benyttet som kilde, verken primær eller sekundær, og årsaken er ganske enkelt at samtaleroboter overhode ikke er pålitelige. De statistiske beregningene kan resultere i faktainnhenting, men like gjerne i feilinformasjon. Verktøy av denne typen er ikke programmert for å rent faktisk skjønne verken input, de data de er «trent» på eller finner frem til på Internett, eller output. En samtalerobot er følgelig heller ikke programmert for å «skjønne» forskjellen på fakta og fiksjon. Dermed blir de fullstendig ubrukelige som en siterbar kilde i en universitetsbesvarelse.
En samtalerobot er ikke en juridisk person og fremkommer heller aldri med et unikt bidrag, men «stjeler» ideer og informasjon fra dens egen database eller fra Internett. Den skaper altså ikke noe vi kan kalle «intellektuelt innhold». Og siden verken OpenAI eller andre utviklere av samtaleroboter har innhentet brukstillatelse fra de mange ulike informasjonsskaperne kan bruk av samtalerobot-generert innhold i noen tilfeller medføre brudd på reglene for opphavsrett.
Siden ChatGPT og lignende samtaleroboter altså ikke er juridiske personer, kan de heller ikke ta ansvar for det de fremkommer med – enten det er korrekt eller rent sprøyt. Dermed kan en samtalerobot heller aldri være medforfatter på en studentbesvarelse i fagemner tilknyttet IKT og læring 1 og 2, eller i fagemnet ORG5005. Av samme grunn godtas heller ikke en samtalerobot som «medutvikler» til et produkt (så som multimediaprodukt, dataspill, osv.).
Som illustrasjon for et poeng
Imidlertid er det helt greit at studenter gjengir en «samtale» med en samtalerobot for å illustrere en spesifikk bruk, f.eks. som del av arbeidskrav knyttet til sosial manipulasjon. Eller for å vise hvordan en samtalerobot kan hente frem informasjon om en definisjon av begrep, ol.
I slike tilfeller skal det ikke henvises i teksten som for en genuin kilde f.eks. (ChatGPT, 2024), men det skal klart fremkomme i form av tekst som f.eks. «I det følgende gjengir jeg en samtale generert av ChatGPT, som illustrerer hvordan…», eller «Når jeg ber ChatGPT om å definere begrepet, fremkommer følgende...».
All bruk/ ikke bruk av samtaleroboter skal deklareres
Siden det ikke er forbudt å benytte samtaleroboter i arbeidet med en besvarelse, må studentene deklarere om slikt verktøy har blitt benyttet, og på hvilken måte det har blitt benyttet. Det skal også deklareres at slik bruk ikke har forekommet på noe stadium i utviklingen av en besvarelse.
Dette skal gjøres innledningsvis i det obligatoriske kapittelet kalt «Refleksjonsnotat», og det skal gjøres både i utkast sendt til veiledning og (selvsagt) i endelig besvarelse levert til mappestenging.
I IKT og læringsstudiene og ORG5005 er dette påpekt både i FAQene og i «Retningslinjer for mappevurdering».
I «Retningslinjer for mappevurdering» er dette spesifisert på følgende måte:
- Kort beskrivelse innledningsvis av om eller ikke, og hvis så hvordan, man har benyttet en samtalerobot (ChatGPT, Jenni, Perplexity.ai, Claude, Gemini Pro, osv.) enten som tekstskriver, grammatikksjekk, strukturskisse som basis for egen besvarelse, faktakilde, osv. Vær obs på at det regnes som fusk å la en samtalerobot produsere hele eller store deler av teksten i en besvarelse. Har man ikke benyttet en samtalerobot deklarerer man dette slik: ««Jeg har ikke benyttet meg av en samtalerobot (ChatGPT eller lignende verktøy) i arbeidet med denne besvarelsen»
I FAQene er dette utformet som følger:
- All bruk av KI (dvs. samtaleroboter av typen ChatGPT, Jenni, Perplexity.ai, Claude, Gemini Pro, osv.) som del av arbeidsprosessen (som tekstskriver, grammatikksjekk, strukturskisse som basis for egen besvarelse, faktakilde osv.) skal nøye bemerkes i refleksjonsnotatet, jfr. Retningslinjer for mappevurdering, kap. «Refleksjonsnotat – Utkast til veiledning».
Har du ikke benyttet en samtalerobot så skal også dette kort deklareres og du kan da f.eks. skrive at «Jeg har ikke benyttet meg av en samtalerobot (ChatGPT eller lignende verktøy) i arbeidet med denne besvarelsen».
_
Studentene må merke seg bruken av ordet «innledningsvis». Man skal altså starte refleksjonsnotatet med en slik deklarasjon.
Oppsummering
Det er ikke tillatt
- å bruke en samtalerobot til å skrive hele eller deler av en teoretisk besvarelse, eller utvikle et produkt tilhørende et arbeidskravs praktiske del, for å så å utgi dette som ens eget
- å bruke en samtalerobot som kilde
- å bruke en samtalerobot som «medforfatter» til en besvarelse, eller «medutvikler» til et produkt
Det er tillatt
- å bruke en samtalerobot for å sjekke begrepsbetydning, gramatikk, rettskriving og oversetting
- å bruke en samtalerobot for å sjekke mulig struktur på en besvarelse
- å bruke en samtalerobot som «samtalepartner»
Når det gjelder det siste punktet, så er det viktige å huske på at samtaleroboter
- kun er programmert til å foreta beregninger av et sett med sannsynlige relasjoner mellom tekst og ord,
- ikke foretar noen form for faglig analyse av validitet – verken i forhold til spørsmålet, innhentet informasjon og dets kilder eller resultatet (svaret),
- absolutt ikke forstår hva vi spør om og heller ikke forstår svaret de presenterer
Følgelig må alt som fremkommer i en slik simulert «samtale» nøye sjekkes med reelle kilder, før det benyttes som del av utviklingsarbeidet med en besvarelse. Dette gjelder særlig dersom man bruker en samtalerobot for å finne kilder/ generere litteraturliste som utgangspunkt for videre arbeid. Samtaleroboten foretar også her kun en statistisk beregning av bokstavsammensetninger og dersom de statistiske beregningene gir høy sannsynlighet for at forfatter A har skrevet artikkel/ bok B, så presenteres dette som en reell kilde uansett om dette ikke stemmer. Husk at falsifisering av kilder regnes som fusk!
Videre må all bruk av samtaleroboter deklareres innledningsvis i refleksjonsnotatet. Også at man ikke har benyttet seg av slike verktøy skal deklares.
__
Reglene for bruk av samtaleroboter ved IKT og læring 1 og 2, samt ORG5005, var klare til semesterstart høsten 2024, og før Nord universitet sine retningslinjer for studenters bruk av generativ kunstig intelligens var klare. Inntil det eventuelt foretas vesentlige endringer i Nord universitet sine retningslinjer, er det det som her er anført og som er beskrevet i «Retningslinjer for mappevurdering» for IKT og læring 1 og 2, og ORG5005, som er gjeldende for studenter ved disse studiene.
For mer om samtaleroboter, se ChatGPT – et taleført eksempel på kunstig intelligens, eller…?