En bloggbok av Per Arne Godejord

I en tid der krig ikke bare utkjempes med våpen, men også med tastatur og algoritmer, må vi alle forstå at vi er deltakere i en pågående informasjonskrig. Motstanderne er både kriminelle og statlige aktører fra Russland og Kina, og frontlinjen går tvers gjennom våre skjermer.
Vi lever i en tid der digitale trusler ikke lenger er noe som bare angår myndigheter og eksperter. De angår deg og meg – i hverdagen, på jobb, og hjemme ved kjøkkenbordet. Når strømmen går, nettet faller ut, vår arbeidsgivers IT-systemer angripes via vår private SMART-mobil eller falske nyheter sprer seg raskere enn fakta, er det vår egen digitale robusthet som avgjør hvor godt vi står imot.
Digital sikkerhet starter ikke i regjeringskvartalet – den starter hjemme. Det handler om å bruke sikre passord, aktivere totrinnsverifisering, og samtale om nettvett hjemme. Det handler om å forstå hvordan vi selv kan være mål for sosial manipulering – og hvordan vi kan stå imot.
Selv om kunstig intelligens skaper nye utfordringer, er det fortsatt de «vanlige mistenkte» som står bak de fleste digitale trusler: statlige etterretningstjenester og organiserte kriminelle. KI er et samlebegrep for en rekke ulike verktøy – men det er menneskene bak tastaturet som utgjør den virkelige faren. Dette er profesjonelle kriminelle eller etterretningsoperatører med et godt grep om psykologi og god kjennskap til vår hang til intellektuell latskap når det gjelder alt som har med IT å gjøre.
Plattformer som Facebook, TikTok og X (tidligere Twitter) er ikke lenger bare tidtrøyte. De er blitt arenaer for psykologisk krigføring. Her formes holdninger, skapes splid og manipuleres virkelighetsoppfatninger. Når vi deler, liker og kommenterer, er vi ikke bare brukere – vi er aktører i et informasjonsmiljø som kan brukes både til opplysning og til destabilisering. Og når vi overlater våre barn og unge til på egenhånd å utforske den digitale verden, så overlater vi dem alene og forsvarsløs til kyniske kommersielle interesser, kriminelle og operatører fra de brutale diktaturstatene Russland og Kina.
Kan en kriminell eller en etterretningsoperatør ikke umiddelbart nå fatt i våre data via våre digitale medieenheter, er våre barns enheter naturlige mål. Og våre barn og unge er også mål for innhold som svekker deres selvforståelse og mentale hygiene, noe som på lang sikt kan gi en befolkning som i liten grad er motstandsdyktige i krise og krig.
Det betyr at digital egenberedskap ikke lenger er et valg – det er en nødvendighet. Vi må:
Dette er ikke paranoia. Det er realisme. Og det er vår nye folkeplikt.
En forkortet utgave av dette blogginnlegget kan også leses på Trønderdebatt.
Per Arne Godejord
Nord University Business School
Norway
This paper critically evaluates the capabilities of fourteen popular chatbots evaluated over a two-year period (December 2022 to January 2025) to address higher-order academic assignments within the field of Social Informatics, specifically focusing on assignments that require complex cognitive skills in alignment with Bloom’s taxonomy.
The chatbots examined include ChatGPT, GPT UiO, Sikt KI-Chat, GPT-3 Playground, Chatsonic, Bing Chat (Copilot), Jenni, Claude, llama70b-v2-chat, Perplexity.ai, Gemini Pro, and others, using primarily their free versions. The tools were tasked with producing fact-based essays, academic responses to course assignments in various sub-fields (e.g., computer security, law, game creation, and work in virtual teams), and addressing complex academic inquiries.
Results indicated that none of the chatbots were capable of reliably producing high-quality academic outputs beyond simple fact repetition. A substantial number of responses involved fabricated information, including non-existent sources.
These findings challenge media claims that chatbots like ChatGPT can effectively meet the demands of higher education assessments and thereby making portfolio assessment in online courses impossible as examination method.
Furthermore, this paper strongly suggests that concerns about chatbots undermining academic integrity in Norwegian bachelor and master’s theses within the fields of Social Sciences and the Humanities are unfounded. In conclusion, current AI tools are far from being true artificial intelligence, and they fall short in delivering the level of academic rigor required by advanced education within the Social Sciences and the Humanities.
(not complete)
This excerpt from an upcoming journal paper is derived from two years of testing involving 14 chatbots. It also incorporates insights from my blog book, “ChatGPT – A Talkative Example of Artificial Intelligence, or…?”.
The comprehensive findings and analyses will be fully detailed in the complete paper, scheduled for publication in 2025/2026.
ORG5005 startet opp første gang våren 2020.
Emnets fokus er egen bevisstgjøring rundt digitale trusler og den enkeltes ansvar for digital beredskap. Denne begrensningen ble valgt for å kunne gjøre et i utgangspunktet enormt fagemne til noe som er gripbart for den enkelte student.
Fagemnet kan derfor sies å omhandle det som kalles Social cybersecurity.
Studentene er i svært liten grad IT-teknisk personell eller ingeniører og emnet berører følgelig ikke de tekniske sidene ved digital sikkerhet. Det store flertallet jobber heller ikke med IKT-sikkerhetsspørsmål eller cyberforsvar til daglig, og det er vanskelig å drifte et fagemne som både tilfredsstiller flertallets behov og behovene til en eller to personers spesialkunnskap.
Fagemnet har følgelig ikke som mål å gjøre studentene i stand til å bekjempe hackere – enten de er kriminelle eller statlige aktører, men skal trigge refleksjoner som til slutt kan være med å gjøre den enkelte student til en bedre beredskapsleder, og ikke minst en mer sikkerhetsbevisst borger i et nesten heldigitalt samfunn. Håpet er at den enkelte student etter å ha gjennomført ORG5005 skal forstå at egne holdninger og egen digital beredskap har betydning for den totale beredskapen, – både hos egen arbeidsgiver og for nasjonens digitale beredskap. Studentene skal også være i stand til å drive bevisstgjøringsarbeid i egen organisasjon, herunder bidra til beredskapsøvelser der bortfall av digital infrastruktur inngår.
Universitetsstudier har alltid hatt som funksjon å utdanne selvstendige kandidater med god vurderingsevne og god evne til kritisk tenkning, og dette er også funksjonen til ORG5005.
ORG5005 er på 7.5 studiepoeng og et fagemne på 7,5 stp. tilhørende EVU-segmentet der studentene studerer på deltid er beregnet til om lag 200 arbeidstimer. Studiepoengberegningen kan relateres til råd om arbeidsbelastning pr. studiepoeng gitt i den internasjonale ECTS-skalaen og nasjonale (UHR) retningslinjene som sier at 1 studiepoeng svarer til en normal arbeidsbyrde på mellom 25 og 30 arbeidstimer.
Siden det gis individuell veiledning på hver besvarelse til de to arbeidskravene og studentene skal kunne jobbe videre med disse to besvarelsene frem mot mappestenging (eksamen består kun av å levere inn ferdigutviklede besvarelser på to arbeidskrav) i slutten av semesteret, blir arbeidsmengden erfaringsmessig overkommelig. Men det krever at studentene har en stor grad av selvdisiplin og er god på å organisere egen tidsbruk.
For å hjelpe studentene med planleggingen av egen studietid med dette emnet, er all informasjon og fagstoff på plass i Canvasrommet til fagemnet senest i midten av desember. Dermed vil studentene ved semesterstart januar kunne ha kontroll på all nødvendig informasjon og samtidig være trygg på at det ikke kommer plutselige kontrabeskjeder eller ikke-varslede oppgaver.
Siden ORG5005 er et asynkront fagemne som er ment å nå det store flertallet som ikke har anledning til å delta på samlinger, ei heller digitale, er det ingen digitale forelesninger i sanntid.
Les mer om utviklingen av ORG5005 på ORG5005 – Fra synkront samlingsbasert til asynkront nettbasert
1) ORG5005 er designet som et asynkront, heldigitalt emne, og har ingen samlinger på campus eller synkrone samlinger via Zoom eller Teams. 2) Undervisningsmedie: Canvas med tekst, lyd og video. 3) Arbeidsmåte: Studentaktiv læring med asynkrone forelesninger, og to obligatoriske arbeidskrav som skal utføres individuelt og leveres inn til individuell veiledning. (Frivillig og ikke knyttet til eksamensretten). Deretter videreutvikles besvarelsene iht. veiledning og leveres i sine endelige versjoner i Inspera innen oppsatt eksamensdato. 4) Ingen trenger å ta seg fri fra jobb for å gjennomføre ORG5005 og dere jobber i deres eget tempo og når dere selv vil innenfor de frister som er satt for innlevering av besvarelser til veiledning. Selv de som skal ut i INTOPS har mulighet til å fullføre ORG5005. Får dere ikke tid til å levere til veiledning innen oppsatt frist, søker dere om utsettelse via e-post direkte til faglærer. De som ser at arbeidsdag, studiedag og hverdag ikke gir rom for innlevering til veiledning, bruker de generelle veiledningsdokumentene og «Retningslinjer for mappevurdering» som grunnlag for endelige besvarelser på de to arbeidskravene. 5) Det blir ingen synkrone samlinger i Zoom eller Teams. Alt, inklusive fagansvarliges velkomsthilsen og muntlige gjennomgang av organiseringen av ORG5005 er heldigitalt og asynkront. 6) Eksamensform: Mappeevaluering med karakter (A – F) |
![]() | ORG5005 har ingen forelesninger i sanntid. Alt fagstoff, videoforelesninger ol. ligger klare i Canvasrommet ved semesterstart. Det som står i Fremdriftsplan for ORG5005 VÅR xx endres ikke og datoene kan legges inn i din egen kalender med en gang. |
![]() | Du får utdelt eksamensoppgavene i form av 2 – to – obligatoriske arbeidskrav i løpet av januar og februar. (Se fremdriftsplanen i Canvasrommet). Disse jobber du med ut fra fagstoffet som ligger i Canvasrommet og fagstoff du selv finner frem til, de generelle veiledningsdokumentene og eksempler på utkast til besvarelser. Du leverer dine utkast til besvarelser inn til individuell veiledning, og deretter jobber du videre med de to besvarelsene frem til endelig innlevering (eksamen). Du kan søke om utsettelse på innlevering til veiledning ved en enkel e-post til faglærer. |
![]() | Eksamen kalles «mappestenging», og du skal levere dine endelige besvarelser på de to arbeidskravene i Inspera. Info om eksamen finner du i infoboksen Mappestenging ORG5005 – Eksamensinformasjon i Canvasrommet. |
Du befinner deg nå i et helt nytt og kanskje fremmedartet miljø. Det er lenker og knapper og faner overalt, og faglærer virker å være lysår unna. Kan dette gå bra? Jo da, sett deg godt til rette i godstolen, ta en kopp kaffe (eller te) og senk skuldrene. Vår store filosof Arne Næss Sr. sa en gang at «Det gjør vondt å tenke» og at dette var «en smerte vi ikke bør unndra oss»(1)
Dersom vi godtar dette utsagnet, vil det også gjøre vondt å ta høyere utdanning. Men hele poenget med høyere utdanning er vel å presse seg selv ut av komfortsonen, ikke sant? Det er da man lærer 😊 Men selv om det er krevende med rene asynkrone nettbaserte studier så er det ikke så vanskelig som det ser ut.
Dette kommer til å gå bra!
(1) Rothenberg, David: Arne Næss – Gjør det vondt å tenke, Cappelen Damm, 1992
Å løse arbeidskravene i IKT og Læring 1 og 2, vil medføre utstrakt prøving og feiling. I de fleste tilfeller vil studentene måtte gjøre ting de ikke har gjort før. Men dette er jo normen i enhver utdanning.
IKT og Læring 1 og 2 er ikke MOOC-kurs, men nettbaserte universitetsstudier spesielt utformet for profesjonelle undervisere/ instruktører. Vi skal utdanne selvstendige kandidater med god vurderingsevne, som skal kunne ikke bare fungere som gode profesjonelle brukere av digitale medier og verktøy i en undervisningssituasjon, men også kunne fungere som rådgivere for ledelsen.
IKT og læring 1 og 2 hører til i grenselandet mellom samfunnsvitenskap og humaniora, og her finnes ingen evige sannheter. Derfor er vårt fokus hele tiden på å støtte og styrke studentens evne til refleksjoner som kan føre til faglig bevissthet, og derigjennom konkrete tiltak og handlinger i studentens egen yrkespraksis.
IKT og læringsstudiene har sitt fokus på studentaktiv undervisning. IKT og Læring 1 og 2 er dermed ikke forelesningsstudier, men studier der læringen skjer via studentenes konkrete arbeid med arbeidskrav, og derigjennom refleksjon over de gitte tema. «Learning by doing» er her helt sentral og de fagansvarlige er ikke forelesere, men tilretteleggere og veiledere.
Undervisningen i IKT og Læring 1 og 2 er altså ikke sentrert rundt forelesninger, men er en kombinasjon av spesielt utviklede arbeidskrav, fagstoff og individuell veiledning av studentenes utkast til besvarelser.
Jeg skal her gjøre et forsøk på å beskrive det å jobbe med arbeidskravene i IKT og Læringsstudiene på samme måte som en gjennomgang av et dataspill. For de som spiller dataspill vil begrepet «Walkthrough» være velkjent.
En Walkthrough er en strategiguide laget av entusiaster for et bestemt dataspill, og som leder spilleren gjennom spillet nivå for nivå. Siden dagens kommersielle spill ofte er ganske komplisert, kan en Walkthrough være et nyttig verktøy for å finne veien gjennom de ulike nivåene.
Et universitetsstudium kan jo også være ganske så kompliserte å finne frem i.
Hvis vi tenker på IKT og Læringsstudiene som et dataspill, så skal studentene løse to oppdrag for hvert enkelt emne som vil være av både teknisk og teoretisk art (både skriftlig notat og teknisk produkt/ praktisk arbeid).
Hvis vi så sier at dette «spillet» har tre nivå – Nybegynner, Veteran og Elite (Som henviser til arbeidsinnsats ikke tekniske forkunnskaper. Forkunnskaper i form av at man enten er lærer/ instruktør/veileder er selvsagt på plass) – kan vi sette opp følgende veiledende retningslinjer:
Å utføre det enkelte arbeidskrav som veteran vil kunne lande en trygg og solid C.
Å ta fatt på arbeidskravene i «Elitemodus» vil si å gjøre det samme som beskrevet over for Veteran, men i tillegg:
Å utføre arbeidskravene på dette nivået vil kunne gi karakterresultat B – A, avhengig av i hvor stor grad studenten viser meget god vurderingsevne og selvstendighet (B), eller leverer en fremragende prestasjon (herunder produkter og praktisk arbeid) som klart utmerker seg (A).
Det mange feiler på i IKT og Læring 1 og 2 er skrivingen av fagtekstene til det enkelte arbeidskrav. Her blir det ofte enten mangelfull analyse og manglende forankring av egne meninger i relevant fagstoff, eller en ordrik tekst med mange kildehenvisninger men helt fri for eksempler og refleksjoner fra egen yrkespraksis.
Arbeidskravene ved IKT og Læring 1 og 2 kan være ganske åpne og det er for å kunne gi mulighet for kandidatene til å vise stor grad av selvstendighet og vurderingsevne, og dermed også gi mulighet for å skille ut A og B-kandidater.
«Retningslinjer for mappevurdering» som er tilgjengelig i samtlige emnerom i Canvas fra studiestart, representerer klare krav og forventninger til studentens skriftlige arbeider. Velger studenten å ikke følge disse, velger denne også vekk muligheten for å oppnå de høyeste karakterene.
«Trusselaktøren er først og fremst ute etter en effekt. Hvilket virkemiddel som benyttes for å oppnå effekten er underordnet.»
– Simen Bakke, 2024 (1)
Helt siden OpenAI sin samtalerobot kom i medias søkelys i november 2022, har vi hatt en strøm av påstander om at vi nå har nådd et «vendepunkt» i utviklingen av kunstig intelligens. Og like sikkert som at vår følger vinter, kommer dommedagspåstandene om helt spesielle (og dramatiske) sikkerhetstrusler fra KI.
«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk, 2023 (1)
«The term “artificial intelligence” has a long history—it was coined in the nineteen-fifties, in the early days of computers. More recently, computer scientists have grown up on movies like “The Terminator” and “The Matrix,” and on characters like Commander Data, from “Star Trek: The Next Generation.” These cultural touchstones have become an almost religious mythology in tech culture. It’s only natural that computer scientists long to create A.I. and realize a long-held dream.»
– Jaron Lanier, 2023 (2)
«A system that most of us would think of as real AI – something that can, more or less, think like us – is known in Computer Science as Generalised Artificial Intelligence, and it is nowhere on the horizon. The term Artificial Intelligence is used instead to apply to anything produced using techniques designed in the quest for real AI. It’s not intelligent. It just does some stuff that AI researchers came up with, and that might look a bit smart. In dim light. From the right angle. If you squint.»
– Linda McIver, PhD, 2023 (3)
Store Norske Leksikon definerer KI på følgende måte: «Kunstig intelligens er informasjonsteknologi som justerer sin egen aktivitet og derfor tilsynelatende framstår som intelligent.»
Et viktig stikkord her er «tilsynelatende framstår som intelligent». Og det er på det nivået vi stadig er når det gjelder forskning og utvikling innen feltet «Kunstig intelligens». For KI, i en form som vil kunne utvikle spesifikke nye digitale trusler, kan vi beskrive på følgende enkle måte:
Maskiner med en intelligens som lar dem forstå, lære og utføre intellektuelle oppgaver omtrent som mennesker. Maskinene emulerer den menneskelige tanke og atferd for å løse alle slags komplekse problemer.
Men som Linda McIver påpeker i sitatet innledningsvis er KI i betydningen av at datasystemer tenker (og handler) som oss mennesker ikke oppfunnet og vi er heller ikke i nærheten av å finne opp et slikt system.
KI i betydningen «Artificial general intelligence (AGI)» er altså enn så lenge rent teoretisk og siden det ikke eksisterer kan det heller ikke utgjøre, eller utvikle, særegne og hittil ukjente digitale trusler.
Open AI sin samtalerobot er et utmerket eksempel på noe som ikke er KI og som samtidig er blitt brukt som eksempel på «KI-trussel».
Men ChatGPT, Microsoft CoPilot og lignende samtaleroboter er ikke eksempler på Kunstig Intelligens (KI). Dette er verktøy som baserer seg på statistiske beregninger. De er som store og avanserte dataspill, der du som spiller får følelsen av at det ikke finnes noen begrensninger på hvor du kan gå eller hva du kan gjøre. Men man skal ikke utforske en slik avansert spillverden særlig mye før en ser at i virkeligheten får man kun gå og gjøre det spillets utviklere har bestemt. Slik er det også med ChatGPT og lignende verktøy. De utfører fantastisk hurtige statistiske beregninger av tilgjengelig informasjon og sannsynlig sammensetning av bokstaver, men alt systemene gjør er bestemt på forhånd av programkode.
Altså: Samtaleroboter, og de språkmodeller de er basert på, er designet for å etterligne menneskelig språkforståelse og språkbruk, men de er fortsatt begrenset av de teknologiske og vitenskapelige prinsippene de (og all annen informasjonsteknologi) er bygget på.
Så selv om samtaleroboter kan utføre til dels imponerende oppgaver og gi inntrykk av å forstå og resonnere, er de rett og slett program som følger forhåndsdefinerte algoritmer og mønstre. De kan kun analysere og generere tekst basert på mønstre i dataene de har fått lagt inn og de parametre for tolkning (inklusive stikkord for ting programmet skal unngå) som er innprogrammert, men de har ingen egen forståelse eller bevissthet, og følgelig heller ingen intelligens.
Samtaleroboter kan altså ikke tenke, de kan ikke resonere og de foretar absolutt ingen analyser av verken det brukeren spør om eller de «svar» programkoden løfter frem. Dermed følger det rent logisk, så vel som teknisk, at en samtalerobot ikke kan «føre mennesker bak lyset» eller frykte å bli erstattet av en annen modell eller slått av.
Som professor Gary Marcus sier i sin kommentar til forskningsartikkelen «Frontier Models are Capable of In-context Scheming»; – «Yes, LLMs can do all this even if they are essentially just analogizing regurgitation machines with no real world model. They have lots of examples in the database — and little capacity to compute the internal consistency of their own actions. Worse, they do not actually calculate the consequences of their actions at all. They can’t reliably sanity check themselves for hallucinations, and they can’t reliably sanity check for whether what they are doing is harmful.»
Når vi leser denne type undersøkelser, gjerne via media, må vi huske på at samtaleroboter er dataprogram laget for å reproduserer ikke bare grammatiske og leksikalske mønstre, men også typiske mønstre for hele sjangre, type fortellinger, osv. Dette gjør de helt uten noen form for egen tankevirksomhet eller hensikt. De går bare gjennom settene med bokstaver, setter dem sammen til statistisk sannsynlige setninger og deretter i en dertil egnet samtaleform, basert på mønstrene de er blitt programmert med.
Dersom forskere (eller andre brukere) legger inn kommandoer/ promting som gir mønstre som statistisk sett peker mot «bedrag», altså det å nekte for noe eller påstå noe, eller foreta handlinger som flytting av data ol. (handlinger som altså allerede ligger innprogrammert som del av et, eller flere, handlingssett), så vil verktøyet utføre denne type «handling/ handlinger».
Det at digitale verktøy/ smarte system kan utføre handlinger de er programmert for, er ikke et tegn på at de er «intelligente» i betydningen av at de tenker og handler på egenhånd.
«Den superintelligente KI-en har på en måte alle Guds egenskaper: Den er allmektig, allvitende, og enten velvillig, eller så er den Djevelen og du er i dens nåde. Som i enhver sekt er det også en følelse av hastverk. Du må handle nå! Verdens skjebne står på spill! Og selvfølgelig trenger du penger!»
– Inga Strümke, PhD. og Anders Løland, PhD., 2024 (4)
«… unravelling the vagueness around AI is important in a broad sense, as there is also something quite dangerous about the futuristic mystique of the term AI when it blinds us to the banal and oppressive realities of certain technologies.»
– AI Myths (Project), u.å. (5)
“Computers are evolving very quickly … the human brain isn’t going to evolve, and so we still need to think about cognitive psychology”
– Andrew Van Schaack, PhD., 2024 (1)
«Cybersecurity is actually 90% about human behavior and 10% about technology.»
– Martin Fix, 2024 (2)
«A lot of the risk really comes from malicious actors, which exist anyway. It’s just another tool for them to use».
– Lauren Kahn, 2023 (3)
«There were stories about the fact that you could use an LLM (large language model) to give you instructions of how to make chemical weapon or bioweapon. That turns out to be false».
– Professor Yann André LeCun, 2024 (4)
I januar 2023 ble det meldt at kriminelle allerede har tatt ChatGPT i bruk, og som fagansvarlig for fagemnet «Digital beredskap» , samt annen undervisning innen informasjonssikkerhet, er jeg naturlig nok sterkt opptatt av de sikkerhetsmessige implikasjonene av verktøy av typen ChatGPT, og ikke minst videosystem som f.eks. Sora.
Og det er blant annet disse to verktøyene som løftes frem som eksempler på noe som kan skape «KI-trusler», uten at det egentlig fremkommer klart hvilke spesifikke «nye» trusler dette gjelder.
At vi nå har flere typer verktøy som kan «produsere» kildekode (i betydningen hente frem via statistiske beregninger allerede produsert kildekode som er offentlig tilgjengelig), vil selvsagt gi «Script kiddies» enda et verktøy (f.eks. Indrik Spider og Scattered Spider). Men siden verken ChatGPT eller lignende samtaleroboter er feilfrie når det gjelder kodegenerering, er det per nå et stort spørsmål om hvor effektive verktøy dette vil være.
Videogenereringsverktøy av typen Sora kan muligens (eller kanskje ikke) ha større effekt innen problemområdet Deepfake, men det er enda for tidlig å si med sikkerhet om disse verktøyene vil være mer effektive som Deepfake-verktøy enn allerede eksisterende system.
Det er jo ikke slik at vi ikke har hatt denne type verktøy før. Det som er nytt er muligheten for at «folk flest» får tilgang til kraftigere verktøy.
Og så må vi ikke glemme verktøy som etterligner stemmer. Også dette benevnes som «KI», men igjen; dette er ikke system som på egenhånd utfører angrep, men verktøy hvis bruk baseres på angriperens egen kunnskap og teknologiske forståelse og ikke minst angriperens kunnskap om hvordan mennesker reagerer.
Tilgang til verktøy kan medføre økt bruk, men det betinger at brukeren vet hvordan verktøyet skal brukes, har kunnskap om hvordan produktet (f.eks. en film eller en kildekode) kan anvendes og deretter mangler de «hemninger» eller holdninger som fraholder de fleste mennesker fra å begå lovbrudd.
«I’m afraid the reasons why neural nets took off this century are disappointingly mundane. For sure there were scientific advances, like new neural network structures and algorithms for configuring them. But in truth, most of the main ideas behind today’s neural networks were known as far back as the 1980s. What this century delivered was lots of data and lots of computing power. Training a neural network requires both, and both became available in abundance this century».
– Michael Wooldridge, 2023 (1)
«An LLM does not understand the semantic meaning of a sentence in a linguistic sense, but rather calculates mathematically what the most likely next word should be based on the input to the model. As neural networks are inherently probabilistic, this has earned LLMs the moniker ‘stochastic parrots’ as the model is extremely good at determining the most likely next sequence – and convincingly so – but has no inherent representation of what those words mean. For this reason, LLMs do not encode an understanding of our world, such as cause-and-effect and the relationships between objects – what linguists refer to as ‘pragmatic inference’. This is a critical limitation of LLMs that users need to understand, otherwise there is a risk of automation bias (where people place too much trust in the output from such models) and anthropomorphism (where people build a human-like rapport with an LLM, which exacerbates automation bias)».
– Adam C., GCHQ’s Chief Data Scientist and Richard J. Carter, PhD, 2023 (2)
«The problem that crops up over and over again in this field is that people anthropomorphize these computers, ascribing all sorts of desires, plans, emotions, and the like. They are machines, running code. They don’t need anything, love or hate anyone, have goals or desires. They are not conscious. They don’t care if they’re replaced by a newer version. They don’t act covertly. They are machines, running code.»
– wsf, 2024 (3)
De «nye» verktøyene, og da særlig de ulike samtalerobotene, fører ikke til noen form for ny trussel. Det vi ser er heller at:
MEN heller ikke her hjelper det med avanserte verktøy om ikke angriperen har den nødvendige innsikt i psykologi, og kunnskap om hvordan foreta effektiv svindel av tilfeldige offer.
Det er ingen grunn til å tvile på at mer avanserte digitale verktøy vil kunne støtte en utvikling og styrking av eksisterende taktikk, teknikker og prosedyrer. Men kun der angriperen har den nødvendige kunnskap og trening i det å utføre digitale operasjoner mot virksomheter eller enkeltpersoner. Digitale angrep er stadig avhengig av menneskelig intelligens og kunnskap, og det er ingen ting som tyder på at dette vil endres i overskuelig fremtid.
«The reliance on imagination and visions of technologies and future warfare characterises much of the academic and political debate on emerging technologies in the field of AWS».
– Anna-Katharina Ferl, PhD., 2023 (1)
«Unlike humans, robotaxis are not able to solve a problem they’ve never encountered before».
– Sebastien Bell, 2024 (2)
Når man skal behandle tanken om at KI per nå utgjør en ny form for trussel, kommer en ikke utenom selvkjørende biler og autonome våpen.
La oss først slå fast nok en gang at vi per i dag ikke har funnet opp maskiner med en intelligens som lar dem forstå, lære og utføre intellektuelle oppgaver omtrent som mennesker, og som emulerer den menneskelige tanke og atferd og dermed kan løse alle slags komplekse problemer.
Dermed blir verken selvkjørende biler eller autonome våpensystemer eksempler på KI, som på mystisk vis kan representere hittil ukjente trusler.
Faren med disse to eksemplene ligger i at de, som alle digitale system, er sårbare for angrep (hacking).
Men digitale angrep mot f.eks. selvkjørende biler eller ordinære biler med system tilknyttet Internett skiller seg ikke ut fra andre typer digitale angrep, selv om implikasjonene for selvkjørende biler kan bli svært alvorlig.
Dette vil gjelde også for de såkalte «autonome våpen», som i likhet med alt det vi noe upresist kaller «KI-systemer» er programmert av mennesker. Selv en robot (våpensystem) som er “autonom” utfører sine instruksjoner kun via den logikk den menneskelige programmereren har lagt inn i systemet og kan ikke tenke selv. Slike våpensystem reiser først og fremst en rekke etiske dilemmaer, og dilemmaer knyttet til krigens lover. Men det er selvsagt mulig at hackere kan forsøke å manipulere data eller ta kontroll over denne type systemer, noe som kan true militære operasjoner og skape kaos på slagmarken.
Det fremsettes også påstander i media om at KI kan føre til at terrorister kan «kjøre en autonom dronestorm over Norge». Hvilken mystisk form for «KI» som skulle kunne gi en slik «plutselig» mulighet blir ikke definert.
Siden droner allerede eksisterer og er i bruk, er det selvsagt her og nå – i dag – fullt mulig for terrorister å «sende en sverm av droner» over Norge. Forutsetningen for dette har ingen ting med KI å gjøre, men at de har droner med adekvat rekkevidde eller sender dem ut innenfor norsk territorium eller i nærheten av Norge, at dronene har våpenkapasitet og at terroristene har den nødvendige kunnskap om effektiv bruk av droner.
Hvorvidt «terrorister» er den mest sannsynlige synderen i et slikt scenario, heller enn en statlige aktør, er egentlig uviktig. Muligheten ligger der og det helt uten noen som helst form for «kunstig intelligens».
Konsekvensene av at smarte IT-systemer blir hacket, eller tatt i bruk av en fiendtlig aktør, kan altså bli alvorlige, men vi snakker stadig om ordinære digitale angrep, eller fysiske angrep som del av klassiske sabotasje- og destabiliseringsoperasjoner, basert på angripernes teknologiske kunnskaper. Og vi snakker ikke, under noen omstendighet, om helt særegne og hittil ukjente trusler a la Terminator-filmene.
Vi snakker tvert i mot stadig vekk utelukkende om smarte statlige aktører, terrorister eller kriminelle, med gode teknologiske kunnskaper og med tilgang til eksisterende verktøy.
«For one, ChatGPT can only write relatively simple applications. Even if it has the skills to do more advanced coding with suitable instructions, it does not instantly provide non-developers a competitive edge over developers who understand coding and have experience in actually writing code».
– Andrej Kovacevic, 2023 (1)
«A chatbot is a single-purpose tool, not an intelligence. Human-level intelligence requires the capacity to go beyond the parameters that its developers set for itself, of its own volition. ChatGPT is preternaturally adept at mimicking human language patterns, but so is a parrot, and no one can argue that a parrot understands the meaning behind the words it is parroting. ChatGPT passing the Turing test doesn’t mean that ChatGPT is as intelligent as a human. It clearly isn’t. All this means is that the Turing test is not the valid test of artificial intelligence we thought it would be».
– John Loeffler, 2023, (2)
At fiendtlig etterretning, kriminelle organisasjoner og «folk flest» har kraftige IT-verktøy til sin disposisjon, betyr ikke at vi plutselig står over for digitale trusler vitenskapen ikke allerede har definert og pekt på.
Den økte tilgjengeligheten av slike verktøy (demokratisering av angrepsverktøy) kan derimot gi grunn til bekymring i den forstand at flere (kanskje) vil kunne utføre digitale angrep, noe som understreker behovet for å stadig styrke informasjonssikkerheten på alle nivåer, både gjennom tekniske løsninger og ikke minst økt digital kompetanse og bevissthet blant oss som borgere i et heldigitalt mediesamfunn.
Hvis den enkelte bruker av de ulike digitale medier – fra SMART-mobil til EL-bil – kan avvennes den naive troen på at digitale angrep bare er noe som skjer andre eller at falske nyheter aldri dukker opp i egen SOME-strøm, vil selv ikke kraftige matematiske modeller (språkmodeller) eller kraftige videogenereringsverktøy hjelpe kriminelle eller statlige aktører til økt suksess.
Når det gjelder andre typer trusler, så som utvikling av virus- eller bakteriologiske våpen, så er det ikke samtaleroboter av typen ChatGPT som foretar utviklingen. Samtaleroboter kan ikke utvikle noe som helst. Men de kan lynraskt søke gjennom offentlig tilgjengelig informasjon allerede lagt ut på internett, og frembringe denne informasjonen til en bruker på en lettfattelig måte. I de tilfeller der informasjonen faktisk er korrekt og brukeren har de nødvendige kunnskaper til å nyttiggjøre seg av denne, letter dette selvsagt det innledende arbeidet. Men den konkrete trusselen er det terroristen og dennes praktiske og teoretiske kunnskaper som står for, ikke samtaleroboten.
Det er heller ikke «KI» som fører til eventuelt økt radikalisering og flere tilhenger til terrororganisasjoner eller ytre høyre- eller venstreparti, men operatørenes kunnskap om hvordan nå frem til aktuelle mottakere nasjonalt og internasjonalt.
Siden media flommer over av artikler om hvordan «KI» benyttes til dette og hint, kan det være greit å tenke over følgende (utheving – tekst i fet skrift – satt av meg):
«Strictly speaking, AI is not a technology at all. Facial-recognition software, translation and speech recognition programs, scheduling algorithms, and predictive models might all have different machine learning tools running in the background, but it is patently absurd to refer to them as a singular technology. We do not call everything containing copper wires «wiring».»
– R.H. Lossin, PhD. og J. Resnikoff, PhD., 2024 (3)
«AI is a marketing term used to generate hype,…»
– Skyler Schain, 2023 (1)
«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor, 2023 (2)
«The results are impressively realistic, but the “basic statistics” are the same. There is no sentience, there’s no self-contemplation, there’s no self-awareness.»
– Professor Michael Wooldridge, 2022 (3)
«Here’s where we actually are, so much more boring, and so much more real: Current models trained on next-token prediction have remarkable abilities and remarkable weaknesses. The scope of those abilities and weaknesses of the current systems is not well understood. There are some applications where the current systems are reliable enough to be practically useful, though not nearly as many as is often claimed. No doubt the next generation of systems will have greater abilities and more extensive applications and will somewhat mitigate the weaknesses. What is to come is even more poorly understood than the present. But there is zero justification for claiming that the current technology has achieved general intelligence.»
– Professor Gary Marcus, 2025 (4)
«Eksempelvis kan KI brukes i påvirkningsoperasjoner, sosial manipulering, eller til å finne sårbarheter i programvare. På samme måte kan KI antagelig også brukes til å oppdage og motvirke disse operasjonene. Hvorvidt KI vil gi størst fordeler til de som forsøker å utnytte det til offensive cyberoperasjoner eller til de som forsøker å forhindre slike operasjoner, er usikkert.»
– PST, Nasjonal trusselvurdering 2024, s. 18 (5)
Det eksisterer ingen «KI-trussel» i det digitale rom.
Truslene i det digitale rom representeres tvert i mot stadig av de samme aktørene som før, av de gode gamle metodene vi kjenner fra før, og ikke minst av vår hang til intellektuell latskap.
Sosial manipulasjon blir mer og mer populært, og enkeltmenneskets bruk av sosiale medier er utgangspunkt for klassiske påvirkningsoperasjoner og like klassiske digitale angrep i form av «klikk på denne lenken». Falske nyheter blir stadig vekk produsert av ekte mennesker og bruken av avanserte verktøy er stadig basert på disse menneskenes kunnskap om hvordan nå ut til aktuelle mottakere.
Fremveksten av avanserte verktøy tilgjengelig for alle kan øke mengden digitale angrep mot viktige systemer og mengden av godt utformede falske videoer som del av angrep mot våre holdninger, og det er absolutt ikke å kimse av. Men angrepsformene er ikke nye.
Fjernstyring av selvkjørende biler eller bruk av våpenførende droner er spesifikke angrepsformer knyttet til terrorisme eller hybrid krigføring, og vil skje dersom en terrorist-gruppe eller en statlig aktører mener dette er hensiktsmessig og har den nødvendige teknologiske kompetanse til å utføre angrepet.
Radikalisering av unge eller andre grupper i et samfunn skyldes ikke «KI», men at terroristorganisasjoner, etterretningsoperatører og ekstremistiske partier har god kunnskap om hvilke samfunnsmessige problemer som kan utnyttes, og dernest hvilke digitale verktøy som kan brukes til å formulere et budskap og nå frem til flest mulige. Skal en stoppe denne type påvirkningsoperasjoner trenges det helt andre virkemidler enn å regulere ulike typer digitale verktøy. Økt utdanning, økt bevissthet i befolkningen som helhet og politiske tiltak for å utjevne/ fjerne sosiale ulikheter, fattigdom, utenforskap ol. er viktige tiltak her.
Angrep rettet mot den politiske og kulturelle verdien av individets evne til å tenke og skape på egenhånd, er ikke utført av «KI», men av kommersielle krefter som ønsker mest mulig salg av spesifikke verktøy og aktører som ønsker å bryte ned liberale demokratiers motstandskraft mot totalitær påvirkning. Også her vil det være utdanning og bevisstgjøring som vil kunne være avgjørende.
Trusselaktørene er uansett angrepsform og verktøybruk stadig vekk den vanlige gjengen av etterretningsoperatører fra fiendtlige nasjoner, terror-grupper, større kriminelle nettverk og mer eller mindre dyktige enkeltkriminelle. Disse aktørene benytter en rekke digitale medier og verktøy i sitt arbeide, men angrepene mot oss er basert på aktørenes intelligens og kunnskap om både teknologi og psykologi. De er ikke basert på en mystisk, ikke-eksisterende digital intelligens.
Og når det gjelder de stadige digitale angrepene mot vårt heldigitale mediesamfunn, så er det fortsatt den enkelte borgers egen bevissthet og egen kunnskap om det digitale som er nøkkelen til å avverge denne type angrep.
Mediestøyen knyttet til fantasiene om at vi nå har utviklet «Kunstig Intelligens» endrer ikke dette enkle faktum.
En forkortet utgave av dette blogginnlegget kan også leses på Trønderdebatt.
NB: En viktig trussel som ikke er nevnt her, er mulighetene samtaleroboter har til å samle informasjon om sine brukere. Særlig obs skal en være på de kinesiske verktøyene som f.eks. DeepSeek som mange – også nordmenn – virker å ha lagt sin elsk på. Dette er absolutt ikke en app man bør ha på sin SMART-mobil!.
Du befinner deg nå i et helt nytt og kanskje fremmedartet miljø. Det er lenker og knapper og faner overalt, og faglærer virker å være lysår unna. Kan dette gå bra?
Jo da, sett deg godt til rette i godstolen, ta en kopp kaffe (eller te) og senk skuldrene. Vår store filosof Arne Næss Sr. sa en gang at
«Det gjør vondt å tenke» og at dette var «en smerte vi ikke bør unndra oss».
Dersom vi godtar dette utsagnet, vil det også gjøre vondt å ta høyere utdanning. Men hele poenget med høyere utdanning er vel å presse seg selv ut av komfortsonen, ikke sant? Det er da man lærer Men selv om det er krevende med rene nettbaserte studier så er det ikke så vanskelig som det ser ut.
Dette kommer til å gå bra!
«Men når en stor del av befolkningen bruker en anselig mengde timer hver dag på hjernedød aktivitet på sosiale medier, presumptivt for underholdning, tidtrøyte og ikke-fysisk kontakt søking, så har dette alvorlige sosiale og psykologiske konsekvensene.»
– Bjørn P. Kaltenborn, 2024 (1)
I en verden hvor informasjon er like tilgjengelig som luft, har kognitiv krigføring blitt et viktig konsept. Sosiale medier, med sin evne til å både spre informasjon raskt og bredt og samtidig virke sløvende på brukernes kognitive prosesser , har blitt en veritabel slagmark for denne typen krigføring.
I det følgende gir jeg en lett, og ytterst grunnleggende, gjennomgang av dette interessante problemområdet.
Kognitiv krigføring handler om å påvirke folks oppfatninger og beslutninger gjennom manipulasjon av informasjon. Det kan være alt fra å spre falske nyheter, til å skape splid og mistillit mellom grupper i samfunnet. Målet er å svekke motstanderens evne til å tenke klart, ta rasjonelle beslutninger og handle effektivt.
Denne formen for krigføring har sin bakgrunn i en kombinasjon av det tekniske knyttet til det vi kaller «informasjonskrigføring», og fra det menneskelige aspektet av «myk makt». Sånn sett har det mye til felles med «Psy-Ops» eller psykologiske operasjoner.
Kognitiv krigføring handler altså som regel om å presentere en skjev fremstilling av virkeligheten, som oftest ved hjelp av digitale medier og verktøy, for å lette eller fremme spesifikke mål. Det at informasjonsteknologi er blitt en så integrert del av våre liv gir påvirkere uendelige muligheter.
Da jeg startet å jobbe med sosiale medier (den gang kalt «Web 2.0») tilbake i 2006, var det først og fremst med tanke på undervisningsbruk. Hvordan kunne blogg (2006), Facebook (2007), YouTube (2007), Twitter (2008), SecondLife (2008) og Wiki (2008) brukes for fremme læring i mine fagemner?
Som leder av undervisningsprosjektet «Gå inn i din tid» der fokuset var bekjempelse av Internettbaserte overgrep mot barn og unge, hadde jeg selvsagt også et blikk på mulige negativ bruk av disse tjenestene. Men i flere år hadde jeg først og fremst et overveiende positivt syn på sosiale medier. Nå har jeg imidlertid begynt å miste troen på disse plattformene som arenaer for læring. De negative effektene begynner å bli for store.
I dagens heldigitale mediesamfunn har sosiale medier blitt en integrert del av vårt daglige liv. Og nettopp fordi nesten alle lag av samfunnet mer eller mindre bevisstløst har integrert seg og sine liv med det digitale, er sosiale medier blitt en ideell plattform for kognitiv krigføring. Med sin evne til å nå ut til store deler av befolkningen på kort tid, kan informasjon – enten den er sann eller falsk – spres raskt. Dette kan skape forvirring, frykt og og undergrave tilliten til offentlige institusjoner og til vårt politiske system. I tillegg kan polariserende innhold bidra til å skape splid i samfunnet, noe som kan være destabiliserende.
Både Kina og Russland er dypt involverte i denne type krigføring og blant annet TikTok har vist seg som et ypperlig medium for begge staters spesialister på kognitiv krigføring. Og barn og unge er en særlig utsatt gruppe. Det er disse som en gang skal videreføre de liberale demokratiske verdier, og dermed blir de viktige mål i den pågående krigen som lenge har rast i de digitale rom.
Kan russiske og kinesiske påvirkningseksperter undergrave unges tro på den liberale rettsstaten vil dette på lang sikt kunne føre til sviktende forståelse for viktigheten av å kjempe aktivt for demokratiet. Og når man ikke frem med politisk undergraving, så kan man pøse på med innhold som svekker barn og unges selvforståelse og mentale hygiene. Jo mer depresjoner, jo mer selvskading og jo mer mobbing man kan fremelske, jo mer kan man svekke demokratienes motstandskraft mot brutale diktaturstaters langsiktige arbeid for en ny verdensorden.
Det er ikke noe hokus-pokus ved det å skjerme seg selv fra denne type angrep på våre holdninger og verdier. Det handler om sunn fornuft og et visst minstemål av tankevirksomhet. Og for foreldre handler det i tillegg å sette seg inn i, og bry seg om, de plattformer egne barn og unge befinner seg på.
De viktigste tiltakene vi kan gjøre er som følger:
Ved å følge disse tiltakene kan vi alle bidra til å bekjempe den kognitiv krigføringen som er rettet mot oss alle via vår 24/7-deltakelse i ulike sosiale medier.
Det er ytterst viktig å være klar over farene ved kognitiv krigføring og den rollen sosiale medier spiller i de konsentrerte angrepene fra blant annet Russland og Kina mot vår liberale rettsstat. Vi må alle ta ansvar for å sjekke fakta og være kritiske til informasjonen vi mottar. Dette er særlig viktig nå som krigen raser rett utenfor vår egen stuedør.
Men den utstrakte bruken av sosiale medier har også andre beredskapsmessige utfordringer. I Forsvarets Forum den 02. september i år, peker Bjørn P. Kaltenborn blant annet på at «Sosiale mediers infiltrering av nær sagt alle samfunnsområder og folks liv er en farlig avsporing fra den sivile kompetansen vi faktisk trenger å bygge opp i beredskapssystemet.»
Så kanskje er det nå på høy tid at vi stiller spørsmål om vår, og våre barns, mer eller mindre bevisstløse bruk av sosiale medier er gått fra å være litt søtt naivt til å bli en alvorlig beredskapsmessig trussel?
Se også:
En forkortet utgave av dette blogginnlegget kan også leses på Nordnorsk debatt.