Kap 8 En sverm av djevler klokken tre

«Det er noko med å sjå på at selskapsleikane si tid er slutt, at dette ikkje er eit leikeverktøy.»
– Leonora Bergsjø, PhD., 2024 (1)

Computers are evolving very quickly … the human brain isn’t going to evolve, and so we still need to think about cognitive psychology
– Andrew Van Schaack, PhD., 2024 (2)

«Cybersecurity is actually 90% about human behavior and 10% about technology.»
– Martin Fix, 2024 (3)

«A lot of the risk really comes from malicious actors, which exist anyway. It’s just another tool for them to use».
– Lauren Kahn, 2023 (4)

«To my mind, the immediate danger of ChatGPT is not so much that it will create better malware (although it may in time) but that it will lower the bar to entry in cybercrime, allowing more people with fewer skills to create original malware, or skilled people to do it more quickly
– Mark Stockley, 2023 (5)

«There were stories about the fact that you could use an LLM (large language model) to give you instructions of how to make chemical weapon or bioweapon. That turns out to be false».
– Professor Yann André LeCun, 2024 (6)

«Eg trur at KI kjem til å gjere dei dårlege dårlegare, og dei gode betre. Om du ikkje har peiling og brukar generativ KI, er det lett å la seg lure til å tru at du har forstått noko du i realiteten ikkje har arbeidd godt nok med. Har du alt god kontroll på feltet og er i stand til å vurdere ulike perspektiv, kan generativ KI by på alt frå nye idear til sekretærhjelp
– Inga Strümke, PhD., 2024 (7)

«The idea that “it’s early days” isn’t compelling enough to put unreliable technology into classrooms. We’ve had years of disappointing edtech to contend with, and COVID and remote learning did little to address teachers’ valid concerns that digital technologies often get in the way of learning
– Leon Furze, PhD-student, 2023 (8)

Jeg har nå vist til en del resultater fra mine tester av både ChatGPT og noen andre tilsvarende samtaleroboter, og har pekt på klare svakheter. Disse svakhetene er også pekt på både nasjonalt og internasjonalt, og understreker at disse verktøyene ikke kan klassifiseres som kunstig intelligens, jfr. innledningen.

Tittelen på dette kapittelet får kanskje noen til å klø seg i hodet og lure på hva i all verden jeg mener her. Tittelen er dels en kulturell henvisning (Kiosklitteratur, 70-tall, Norge) og dels en flymilitær henvisning (Antall fiender, hvor). Og årsaken til denne «litterære» blomst av en tittel er at utviklingen av de ulike språkmodellene har synliggjort en sverm av atskillig alvorligere problemer i horisonten, enn at studenter muligens vil bruke samtaleroboter til eksamensbesvarelser.

Problemene er knyttet til det sikkerhetsmessige, etiske og juridiske, samt noen læringsmessige utfordringer. Det er for min del nettopp denne type problemstillinger som gjør disse verktøyene interessante, ikke minst som del av egen undervisning i informasjonssikkerhet og digital dannelse.

Her er et lite knippe av problemstillinger som jeg føler har druknet i all viraken rundt ChatGPT og lignende verktøy:

Sikkerhetsmessige problemstillinger

  1. Nettkriminelle: Disse kan bruke ChatGPT til å skrive skadelig programvare, lage svindelnettsteder, generere phishing-e-poster, og lage falske nyheter
  2. Statlige aktører, terrorister og ekstremistgrupper: Disse kan utnytte samtalerobotene til å destabilisere demokratiske stater vha. f.eks. falske nyheter, i tillegg til utvikling av skadelig programvare.

Etiske problemstillinger

  1. Bias: Det har vært stilt spørsmål ved hvilke kilder som disse samtalerobotene trenes på, og om kildematerialet er av en slik art at svarene preges av stereotyper
  2. Transparens: Det fremgår ikke alltid på hvilken måte disse verktøyene treffer beslutninger om hva som er relevant informasjon, og dermed blir det vanskelig å skjønne hvorfor en samtalerobot svarer som den gjør.
  3. Utnyttelse av billig arbeidskraft i fattige land for å legge inn data i ChatGPT og lignende verktøy.
  4. Uetisk bruk av samtalerobotene: For hvert spørsmål en bruker stiller til ChatGPT og lignende verktøy, trenger serverene som inneholder samtalerobotprogrammet mye vann til kjøling. Videre kan disse verktøyene brukes til å skape falske nyheter, desinformasjon, og fremstilling av andres tanker som sine egne, osv.

Juridiske problemstillinger

  1. Opphavsrett: Samtalerobotene kan produsere tekst som er helt, eller delvis, lik eksisterende opphavsbeskyttede tekster. Og hverken OpenAI eller andre leverandører av slike tjenester har søkt om å få bruke det opphavsbeskyttete materialet de har benyttet til å trene sine verktøy.
  2. Personvern: Samtalerobotene kan samle private opplysninger om brukerne, som senere kan benyttes for å identifisere brukere og på ulike måter være til ulempe og skade for disse.

Læringsmessige problemstillinger

  1. Svekkelse av evnen til kritisk tenkning og evnen til problemløsning: ChatGPT, og lignende verktøy, gir (i noen tilfeller) klare svar og løsninger på oppgaver. Dette kan over tid svekke elever og studenters evne til å håndtere prosessen med å analysere, evaluere og syntetisere informasjon på egenhånd.
  2. Svekkelse av evnen til å tenke kreativt og komme frem med originale løsninger: ChatGPT og lignende verktøy utmerker seg ved å generere svar basert på eksisterende kunnskap (når systemene ikke ganske enkelt finner på rent tøv), men de statistiske beregningene gir (naturlig nok) verktøyene ingen evne til å tenke kreativt eller komme opp med originale ideer. Elever og studenter trenger muligheter til å utforske sin egen kreativitet, tenke utenfor boksen og utvikle sine unike perspektiver. Det er denne type evner som omfattes av f.eks. karakterene A og B ved et universitetsstudium og utstrakt bruk av statistisk generert innhold kan hindre utviklingen av denne type evner.
  3. Sterkere skille mellom faglig svake og sterke elever og studenter: For de elever eller studenter som allerede har vanskeligheter med effektiv bruk av ordinære søkemotorer, som har problemer med å lese (og analysere) faglige tekster, har problem med å skrive akademiske tekster og er dårlig på å tenke strukturert, kan ChatGPT og lignende samtaleroboter bli en høyst usikker støtte som ytterligere fremhever disse brukernes svakheter isteden for å løfte dem kunnskapsmessig. Å bruke slike verktøy effektivt krever mye kunnskap, ikke bare om det tema man ønsker å søke på men også evnen til å lese de genererte tekstene nøye og kritisk, og deretter utføre søk på nett eller i bøker for å sjekke validiteten av det samtaleroboten har produsert.

Det overforstående er bare noen problemområder som danner grunnlag for min videre fundering og uttesting av ChatGPT og lignende verktøy fremover.

For mer om det rent sikkerhetsmessige se: Trusler i det digitale rom – KI eller ganske enkelt the usual suspects?

I neste kapittel skal vi se litt nærmere på dette med samtaleroboter og utdanning, og da særlig høyere utdanning. Betyr ChatGPT og lignende verktøy slutten for alle typer eksamen utenom den klassiske skoleeksamen med penn og papir?

Men først; litt mer lesestoff knyttet til etiske, juridiske, læringsmessige og sikkerhetsmessige problemstillinger.

LESELISTE TIL DETTE KAPITTELET

Etiske problemstillinger

  1. ‘Thirsty’ ChatGPT uses four times more water than previously thought
  2. AI doesn’t just require tons of electric power. It also guzzles enormous sums of water
  3. Unethical and reliable: Why I’m not allowing ChatGPT in my firm
  4. Ett år med ChatGPT
  5. Kirurger som danser
  6. Kunstig intelligens: Innholdet er laget av menn. Algoritmene er laget av menn
  7. Ett år med ChatGPT: Etiske blindsoner, eller lukkede øyne?
  8. OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
  9. Etikken og implikasjonene av å bruke ChatGPT for automatisert kundeservice
  10. Etikk-eksperter: – Vær varsom ved bruk av kunstig intelligens
  11. The ethics of ChatGPT – Exploring the ethical issues of an emerging technology
  12. Kunstig intelligens: Venn og hjelper, eller hyperkommersiell trussel?

Juridiske problemstillinger

  1. Ikke lov å bruke ChatGPT i skolen når aldersvilkåret er 18 år
  2. OpenAI’s ChatGPT is Breaking GDPR, Says Noyb
  3. Status of all copyright lawsuits v. AI
  4. Er ChatGPT plagiat? – Opphavsrett og Chatbot/ AI
  5. Hvilke juridiske problemstillinger kan oppstå i forbindelse med kunstig intelligens?
  6. OpenAI Sued for Using Copyrighted Material to Train ChatGPT
  7. Hvem eier innholdet som lages av kunstig intelligens?
  8. Employers Should Consider These Risks When Employees Use ChatGPT
  9. ChatGPT is a data privacy nightmare. If you’ve ever posted online, you ought to be concerned

Læringsmessige problemstillinger

  1. How ChatGPT Robs Students of Motivation to Write and Think for Themselves
  2. Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students
  3. ChatGPT May Lead To The Downfall Of Education And Critical Thinking
  4. Tenke sjæl
  5. Kunstig intelligens: Er vi smarte nok ?
  6. Hvordan svarer ChatGPT om kontroversielle temaer?

Sikkerhetsmessige problemstillinger

  1. When it comes to security, LLMs are like Swiss cheese — and that’s going to cause huge problems
  2. THE DARK SIDE OF LARGE LANGUAGE MODELS (2 deler)
  3. CHATGPT – EN TRUSSEL MOT DEMOKRATIET
  4. ChatGPT, Grok, Gemini and other AI chatbots are spewing Russian misinformation, study finds
  5. Social engineering with ChatGPT
  6. Security threats in AIs such as ChatGPT revealed by researchers
  7. Is ChatGPT a cybersecurity threat?
  8. Unveiling the Dark Side of ChatGPT: Exploring Cyberattacks and Enhancing User Awareness
  9. 11 Convincing ChatGPT and AI Scams to Watch out for in 2024
<Forrige kapittelNeste kapittel>