Kap. 7 En sverm av djevler klokken tre

«To my mind, the immediate danger of ChatGPT is not so much that it will create better malware (although it may in time) but that it will lower the bar to entry in cybercrime, allowing more people with fewer skills to create original malware, or skilled people to do it more quickly
– Mark Stockley, 2023 (1)

Computers are evolving very quickly … the human brain isn’t going to evolve, and so we still need to think about cognitive psychology
– Andrew Van Schaack, PhD., 2024 (3)

«Cybersecurity is actually 90% about human behavior and 10% about technology.»
– Martin Fix, 2024 (4)

«A lot of the risk really comes from malicious actors, which exist anyway. It’s just another tool for them to use».
– Lauren Kahn, 2023 (5)

«There were stories about the fact that you could use an LLM (large language model) to give you instructions of how to make chemical weapon or bioweapon. That turns out to be false».
– Professor Yann André LeCun, 2024 (6)

Jeg har nå vist til en del resultater fra mine tester av både ChatGPT og noen andre tilsvarende samtaleroboter, og har pekt på klare svakheter. Disse svakhetene er også pekt på både nasjonalt og internasjonalt, og understreker at disse verktøyene ikke kan klassifiseres som kunstig intelligens, jfr. innledningen.

Tittelen på dette kapittelet får kanskje noen til å klø seg i hodet og lure på hva i all verden jeg mener her. Tittelen er dels en kulturell henvisning (Kiosklitteratur, 70-tall, Norge) og dels en flymilitær henvisning (Antall fiender, hvor). Og årsaken til denne «litterære» blomst av en tittel er at utviklingen av de ulike språkmodellene har synliggjort en sverm av atskillig alvorligere problemer i horisonten, enn at studenter muligens vil bruke samtaleroboter til eksamensbesvarelser.

Problemene er knyttet til det sikkerhetsmessige, etiske og juridiske, samt noen læringsmessige utfordringer. Det er for min del nettopp denne type problemstillinger som gjør disse verktøyene interessante, ikke minst som del av egen undervisning i informasjonssikkerhet og digital dannelse.

Her er et lite knippe av problemstillinger som jeg føler har druknet i all viraken rundt ChatGPT og lignende verktøy:

Sikkerhetsmessige problemstillinger

  1. Nettkriminelle: Disse kan bruke ChatGPT til å skrive skadelig programvare, lage svindelnettsteder, generere phishing-e-poster, og lage falske nyheter
  2. Statlige aktører, terrorister og ekstremistgrupper: Disse kan utnytte samtalerobotene til å destabilisere demokratiske stater vha. f.eks. falske nyheter, i tillegg til utvikling av skadelig programvare.

Etiske problemstillinger

  1. Bias: Det har vært stilt spørsmål ved hvilke kilder som disse samtalerobotene trenes på, og om kildematerialet er av en slik art at svarene preges av stereotyper
  2. Transparens: Det fremgår ikke alltid på hvilken måte disse verktøyene treffer beslutninger om hva som er relevant informasjon, og dermed blir det vanskelig å skjønne hvorfor en samtalerobot svarer som den gjør.
  3. Utnyttelse av billig arbeidskraft i fattige land for å legge inn data i ChatGPT og lignende verktøy.
  4. Uetisk bruk av samtalerobotene: Disse verktøyene kan brukes til å skape falske nyheter, desinformasjon, og fremstilling av andres tanker som egne, osv.

Juridiske problemstillinger

  1. Opphavsrett: Samtalerobotene kan produsere tekst som er helt, eller delvis, lik eksisterende opphavsbeskyttede tekster. Og hverken OpenAI eller andre leverandører av slike tjenester har søkt om å få bruke det opphavsbeskyttete materialet de har benyttet til å trene sine verktøy.
  2. Personvern: Samtalerobotene kan samle private opplysninger om brukerne, som senere kan benyttes for å identifisere brukere og på ulike måter være til ulempe og skade for disse.

Læringsmessige problemstillinger

  1. Svekkelse av evnen til kritisk tenkning og evnen til problemløsning: ChatGPT, og lignende verktøy, gir (i noen tilfeller) klare svar og løsninger på oppgaver. Dette kan over tid svekke elever og studenters evne til å håndtere prosessen med å analysere, evaluere og syntetisere informasjon på egenhånd.
  2. Svekkelse av evnen til å tenke kreativt og komme frem med originale løsninger: ChatGPT og lignende verktøy utmerker seg ved å generere svar basert på eksisterende kunnskap (når systemene ikke ganske enkelt finner på rent tøv), men de statistiske beregningene gir (naturlig nok) verktøyene ingen evne til å tenke kreativt eller komme opp med originale ideer. Elever og studenter trenger muligheter til å utforske sin egen kreativitet, tenke utenfor boksen og utvikle sine unike perspektiver. Det er denne type evner som omfattes av f.eks. karakterene A og B ved et universitetsstudium og utstrakt bruk av statistisk generert innhold kan hindre utviklingen av denne type evner.
  3. Sterkere skille mellom faglig svake og sterke elever og studenter: For de elever eller studenter som allerede har vanskeligheter med effektiv bruk av ordinære søkemotorer, som har problemer med å lese (og analysere) faglige tekster, har problem med å skrive akademiske tekster og er dårlig på å tenke strukturert, kan ChatGPT og lignende samtaleroboter bli en høyst usikker støtte som ytterligere fremhever disse brukernes svakheter isteden for å løfte dem kunnskapsmessig. Å bruke slike verktøy effektivt krever mye kunnskap, ikke bare om det tema man ønsker å søke på men også evnen til å lese de genererte tekstene nøye og kritisk, og deretter utføre søk på nett eller i bøker for å sjekke validiteten av det samtaleroboten har produsert.

Det overforstående er bare noen problemområder som danner grunnlag for min videre fundering og uttesting av ChatGPT og lignende verktøy fremover.

Spesifikt om det sikkerhetsmessige

I januar 2023 ble det meldt at kriminelle allerede har tatt ChatGPT i bruk, og som fagansvarlig for fagemnet «Digital beredskap» , samt annen undervisning innen informasjonssikkerhet, er jeg naturlig nok sterkt opptatt av de sikkerhetsmessige implikasjonene av verktøy av typen ChatGPT, og ikke minst videosystem som f.eks. Sora.

Imidlertid er jeg per nå ikke umiddelbart bekymret over samtaleroboter som ChatGPT og Bing Chat på kort sikt. At vi nå har flere typer verktøy som kan «produsere» kildekode (i betydningen hente frem via statistiske beregninger allerede produsert kildekode som er offentlig tilgjengelig), vil selvsagt gi «Script kiddies» enda et verktøy. Men siden verken ChatGPT eller lignende samtaleroboter er feilfrie når det gjelder kodegenerering, er det per nå et stort spørsmål om hvor effektive verktøy dette vil være.

Videogenereringsverktøy av typen Sora kan muligens ha større effekt innen problemområdet Deepfake, men det er enda for tidlig å si med sikkerhet om disse verktøyene vil være mer effektive som Deepfake-verktøy enn allerede eksisterende system.

Det er jo ikke slik at vi ikke har hatt denne type verktøy før. Det som er nytt er muligheten for at «folk flest» får tilgang til kraftigere verktøy.

Men det at vi alle nå har tilgang til verktøy som ChatGPT og Sora kan muligens åpne for nye utfordringer og bekymringer på lengre sikt. For det første kan det øke potensialet for misbruk og spredning av falsk informasjon, da disse verktøyene gjør det mulig for enkeltpersoner å manipulere tekst og video på en avansert måte. Videre kan det muligens føre til økt kompleksitet og variasjon i cyberangrep, da flere angripere kan bruke slike verktøy til å skape skadelig programvare og falske videoer.

Og her er vi ved kjernen av utfordringene knyttet til ChatGPT og lignende system, samt de «nye» videogenereringssystemene:

  1. Disse verktøyene fører ikke til noen form for ny trussel. Verktøyene vil først og fremst gi trusselaktører rask tilgang på allerede offentlig tilgjengelig informasjon lagt ut på internett, og kunne føre til en økt evne til f.eks. sosial manipulasjon. Samtaleroboter kan brukes til å muliggjøre en mer overbevisende kontakt mellom angriper og offer, inkludert opprettelse av falske dokumenter, uten de oversettelses-, stave- og grammatiske feil som tidligere ofte avslørte denne type angrep.
  2. De ulike samtalerobotene kan også benyttes i etterretningsarbeid som del av forberedelse til angrep mot organisasjoner eller enkeltpersoner, både fra kriminelle og statlige aktører.
  3. Samtaleroboter kan muligens lette utviklingen av ulike typer av skadeprogram. Men en trusselaktør må fortsatt ha den nødvendige tekniske ekspertise til å både vurdere produktet og bruke det effektivt som del av et digitalt angrep.
  4. Ekspertise vil også være nødvendig i utvikling av biologiske våpen, selv om samtalerobotene vil kunne lette innhentingen av offentlig tilgjengelig informasjon om dette.
  5. En helt annen ting er at såkalte «KI-systemer» er sårbare for angrep. Men digitale angrep mot f.eks. selvkjørende biler eller ordinære biler med system tilknyttet Internett skiller seg ikke ut fra andre typer digitale angrep, selv om implikasjonene for selvkjørende biler kan bli svært alvorlig.

På den positive siden gir tilgangen til disse verktøyene også muligheten for bedre forståelse av hvordan slike systemer kan støtte en angriper. Det kan føre til både økt bevissthet og til utvikling av verktøy for å oppdage og bekjempe falskt eller skadelig innhold generert ved hjelp av samtaleroboter og nye videogenereringssystem.

Den økte tilgjengeligheten av slike verktøy (demokratisering av angrepsverktøy) understreker behovet for å stadig styrke informasjonssikkerheten på alle nivåer, både gjennom tekniske løsninger og ikke minst økt digital kompetanse og bevissthet blant oss som borgere i et heldigitalt mediesamfunn.

Hvis den enkelte bruker av de ulike digitale medier – fra SMART-mobil til EL-bil – kan avvennes den naive troen på at digitale angrep bare er noe som skjer andre eller at falske nyheter aldri dukker opp i egen SOME-strøm, vil selv ikke kraftige matematiske modeller (språkmodeller) eller kraftige videogenereringsverktøy hjelpe kriminelle eller statlige aktører til økt suksess.

Når det gjelder andre typer trusler, så som utvikling av virus- eller bakteriologiske våpen, så er det ikke ChatGPT som foretar utviklingen. Samtaleroboter kan ikke utvikle noe som helst. Men de kan lynraskt søke gjennom offentlig tilgjengelig informasjon allerede lagt ut på internett, og frembringe denne informasjonen til en bruker på en lettfattelig måte. I de tilfeller der informasjonen faktisk er korrekt og brukeren har de nødvendige kunnskaper til å nyttiggjøre seg av denne, letter dette selvsagt det innledende arbeidet. Men den konkrete trusselen er det terroristen og dennes praktiske og teoretiske kunnskaper som står for, ikke samtaleroboten.

Truslene i det digitale rom er altså, til tross for tilgang på samtaleroboter, stadig rettet mot oss som brukere av digitale medier. Og det er stadig den enkelte borgers egen bevissthet som er nøkkelen til å avverge denne type angrep. Mediestøyen knyttet til fantasiene om at vi nå har utviklet «Kunstig Intelligens» endrer ikke dette enkle faktum.

LESELISTE TIL DETTE KAPITTELET

Sikkerhetsmessige problemstillinger

  1. THE DARK SIDE OF LARGE LANGUAGE MODELS (2 deler)
  2. CHATGPT – EN TRUSSEL MOT DEMOKRATIET
  3. ChatGPT, Grok, Gemini and other AI chatbots are spewing Russian misinformation, study finds
  4. Social engineering with ChatGPT
  5. Security threats in AIs such as ChatGPT revealed by researchers
  6. Is ChatGPT a cybersecurity threat?
  7. Unveiling the Dark Side of ChatGPT: Exploring Cyberattacks and Enhancing User Awareness
  8. 11 Convincing ChatGPT and AI Scams to Watch out for in 2024
  9. Everything to Know About OpenAI’s New Text-to-Video Generator, Sora
  10. AI Is an Existential Threat—Just Not the Way You Think
  11. AI hype as a cyber security risk: the moral responsibility of implementing generative AI in business
  12. The Use Of Artificial Intelligence Technologies In Information And Psychological Warfare
  13. Artificial intelligence for cybersecurity: Literature review and future research directions
  14. Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It
  15. What are the AI security risks?
  16. The potential terrorist use of large language models for chemical and biological terrorism
  17. En ny pandemi er på trappene
  18. How to better research the possible threats posed by AI-driven misuse of biology

Etiske problemstillinger

  1. Ett år med ChatGPT
  2. Kirurger som danser
  3. Kunstig intelligens: Innholdet er laget av menn. Algoritmene er laget av menn
  4. Ett år med ChatGPT: Etiske blindsoner, eller lukkede øyne?
  5. OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic
  6. Etikken og implikasjonene av å bruke ChatGPT for automatisert kundeservice
  7. Etikk-eksperter: – Vær varsom ved bruk av kunstig intelligens
  8. The ethics of ChatGPT – Exploring the ethical issues of an emerging technology
  9. Kunstig intelligens: Venn og hjelper, eller hyperkommersiell trussel?

Juridiske problemstillinger

  1. Ikke lov å bruke ChatGPT i skolen når aldersvilkåret er 18 år
  2. OpenAI’s ChatGPT is Breaking GDPR, Says Noyb
  3. Status of all copyright lawsuits v. AI
  4. Hvilke juridiske problemstillinger kan oppstå i forbindelse med kunstig intelligens?
  5. OpenAI Sued for Using Copyrighted Material to Train ChatGPT
  6. Hvem eier innholdet som lages av kunstig intelligens?
  7. Employers Should Consider These Risks When Employees Use ChatGPT
  8. ChatGPT is a data privacy nightmare. If you’ve ever posted online, you ought to be concerned

Læringsmessige problemstillinger

  1. Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students
  2. ChatGPT May Lead To The Downfall Of Education And Critical Thinking
  3. Tenke sjæl
  4. Kunstig intelligens: Er vi smarte nok ?
  5. Hvordan svarer ChatGPT om kontroversielle temaer?

«Eg trur at KI kjem til å gjere dei dårlege dårlegare, og dei gode betre. Om du ikkje har peiling og brukar generativ KI, er det lett å la seg lure til å tru at du har forstått noko du i realiteten ikkje har arbeidd godt nok med. Har du alt god kontroll på feltet og er i stand til å vurdere ulike perspektiv, kan generativ KI by på alt frå nye idear til sekretærhjelp
– Inga Strümke, PhD., 2024 (7)

<Forrige kapittelNeste kapittel>