Den farlige drømmen om KI

«Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them»
– Frank Herbert, Dune, 1965

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår»
– Bjørn Stærk (1)

Innledning

«No, Bloomberg News, ChatGPT did not get an MBA. No, NBC News, ChatGPT did not even pass an exam.»
– Professor Melanie Mitchell (2)

I løpet av de siste årene har samtaleroboter som ChatGPT, Copilot, Gemini ol. blitt løftet frem som teknologiske mirakler og verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Men bak medieoverskriftene og de euforiske uttalelsene fra politikere og næringslivsaktører skjuler det seg en virkelighet som er langt mer nyansert, til dels ytterst kjedelig og absolutt uten noen form for intelligens.

Som informasjonsviter med et særlig blikk for informasjonsteknologiens pedagogiske og samfunnsmessige implikasjoner siden 90-tallet, har jeg over to år testet 14 ulike samtaleroboter på eksamensoppgaver knyttet til fagfeltet Samfunnsinformatikk.

Samtlige oppgaver krevde analyse, syntese og evaluering og var utformet for å måle studentenes evne til faglig refleksjon knyttet til helt spesifikt fagstoff, evne til å knytte dette til egen yrkesvirkelighet, evne til å reflektere over egen læring og evne til å finne gode (og etterprøvbare) fagkilder for å bygge opp under egne faglige refleksjoner.

Resultatene var entydig negative og gjorde det krystallklart at disse verktøyene verken er intelligente eller kreative. Og de er absolutt ikke faktainnhentere. De er avanserte statistiske tekstgeneratorer klart bundet av algoritmer og mønstergjenkjenning, ikke forståelse.

Både mine tester, og internasjonal forskning på hvordan samtaleroboter behandler eksamensoppgaver knyttet til høyere nivå i Blooms taksonomi, viser at mediehistoriene om at dette var verktøy som lett kunne skrive gode universitetsbesvarelser uansett fagemne ikke stemmer. Og amerikanske forskere har for lengst vist at påstandene om at ChatGPT, og lignende verktøy, klarte bachelor og mastereksamener ikke holdt vann.

Til tross for at ingen av de vidløftige påstandene knyttet til samtaleroboter er innfridd, lever mytene om KI videre. Nå er det samtalerobotene som plutselig er blitt inngangsporten til drømmen om tenkende maskiner.

Manglende vitenskapelig kompetanse

«The current idea that chatbots are «AI» and claims that computers can now truly think is a reflection of the imbalance between rapid technological progress and the widespread lack of scientific literacy. In the past, people fervently believed in demons and UFOs. Today, it’s AI»
– Per A. Godejord

Utsagnet mitt over bygger på en observasjon Carl Sagan gjorde på slutten av 1990-tallet; at det var et kritisk behov for utbredt vitenskapelig kompetanse i en verden som i stadig større grad formes av vitenskap og teknologi. I dag er denne teknologiske påvirkningen, i det minste i den velstående delen av verden, enda mer fremtredende.

Sagan advarte om at et samfunn som er sterkt avhengig av teknologi, men mangler forståelse for den, er iboende ustabilt og utsatt for manipulasjon. Han mente at manglende vitenskapelig forståelse gjør folk sårbare for pseudovitenskap og feilinformasjon, noe som hemmer evnen til å ta informerte beslutninger.

Etter min mening er denne bekymringen like relevant i dag, om ikke mer. Dette så vi særlig i mediehysteriet rundt fremveksten av samtaleroboter av typen ChatGPT.

Det virker for meg som behovet for det Carl Sagan kalte et «baloney detection kit» er enda større nå enn det var på 90-tallet. Og da særlig knyttet til de ulike påstandene om at ChatGPT og lignende verktøy kan svare ekspertmessig på alle typer universitetsoppgaver, og at samtalerobotenes utvikling betyr at vi nå har intelligente datamaskiner.

Denne type påstander er ikke bare vitenskapelig uholdbare, de kan være farlig.

Mytene om KI er en samfunnsrisiko

«KI er et blestord uten håndfast betydning»
– Bjørn Stærk (3)

«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor (4)

Det mest alvorlige i de siste årenes mediefantasier knyttet til samtaleroboter er ikke teknologien i seg selv, men hvordan vi forstår og bruker den. Når både media, politikere og utdanningsinstitusjoner ukritisk videreformidler ideen om at samtaleroboter er intelligente og at vi som del av dette nå plutselig har utviklet intelligente maskiner, bidrar vi til en teknologisk analfabetisme som kan få alvorlige konsekvenser.

Så og si samtlige mennesker i dette landet er storkonsumenter av digitale medier. Men det er ikke gitt at dette utstrakte konsumet gir seg utslag i særlig stor forståelse, verken blant eldre eller unge, for hva digital teknologi i bunn og grunn rent faktisk er.

Og i en tid preget av omfattende digital sårbarhet, økende hybrid krigføring og informasjonskrig, er det avgjørende at befolkningen har en realistisk og kunnskapsbasert forståelse av hvordan informasjonsteknologi faktisk fungerer. En slik forståelse vil være det sikreste botemiddel mot digitale trusler fra både kriminelle og fiendtlige nasjoners etterretning.

Særlige våre ikke-teknologiutdannede politikere trenger å forstå at KI ikke er ett verktøy, men et kontroversielt sekkebegrep som omfatter en hel rekke ulike IT-systemer.

Samtalerobotene som media og våre politikere er så begeistret for, er utelukkende utviklet for å skrive gode setninger, og har absolutt ingen anelse om vår eksistens. En datamaskin kan verken føle eller tenke, og resultatet av våre spørsmål er verken intelligens eller resonnering, og slett ikke forståelse. Det ChatGPT og lignende verktøy leverer, er lynhurtig autofullføring av tekst. Og disse verktøyene er, på samme måte som sosiale medier, konstruert for å være avhengighetsskapende.

Ingen av de ulike systemene/ verktøyene som er utviklet som del av forskningsfeltet KI, vil i seg selv nødvendigvis være nyttig i alle deler av det offentlige og det private, med mindre en klar strategi for IT-bruk i den enkelte virksomhet er på plass. Og bare fordi media og deler av næringslivet, med våre politikere som lydige etterplaprere, nå kaller ethvert IT-system for «KI», betyr ikke at vi per nå rent faktisk har utviklet digitale system som er i nærheten av intelligens.

I dagens kompliserte verden trenger vi ikke flere myter om såkalt «KI». Vi trenger digital dannelse, teknologikritikk og et utdanningssystem som setter individet, menneskelig innsikt og refleksjon i sentrum og ikke maskinens evne til å etterligne slike egenskaper. Og vi trenger at folk flest slutter å overlate egen dømmekraft til datamaskiner. Utstrakt bruk av lettvinte løsninger a la ChatGPT gjør oss dummere, og dermed til et lettere bytte for fiendtlige aktører.

Kanskje er det derfor på høy tid å hente frem, og tenke litt over, Carl Sagan sine ord fra boken «The Demon-Haunted World: Science as a Candle in the Dark»:

«We have designed our civilization based on science and technology and at the same time arranged things so that almost no one understands anything at all about science and technology. This is a clear prescription for disaster.»

Leseliste

  1. There’s no such thing as Artificial Intelligence
  2. Artificially voiced intelligences: voice and the myth of AI
  3. Artificial Intelligence: A Clarification of Misconceptions, Myths and Desired Status
  4. A Comprehensive Review of AI Myths and Misconceptions
  5. ChatGPT and other language AIs are nothing without humans – a sociologist explains how countless hidden people make the magic
  6. ChatGPT is not “true AI.” A computer scientist explains why
  7. Can computers think? No, they cant actually do anything
  8. Why Our Machines Will Never Be as Smart as We Are
  9. Why a computer will never be truly conscious
  10. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do
  11. Will computers overtake humans in intellectual ability?

Samtaleroboter i akademia – KI-verktøy eller kun statistiske tekstgeneratorer?

[Dette innlegget er basert på arbeidet jeg har gjort knyttet til samtaleroboters evne til å besvare arbeidskrav (eksamensoppgaver) i mine fagemner. En omarbeidet versjon er publisert på forskersonen.no]

«Neural networks today are realized in software, rather than in electrical circuits, and to be clear, neural net researchers don’t try to actually model the brain, but the software structures they use — very large networks of very simple computational devices — were inspired by the neural structures we see in brains and nervous systems»
– Professor Michael Wooldridge (1)

«Differences about the future of AI are often partly rooted in differing interpretations of evidence about the present. For example, we strongly disagree with the characterization of generative AI adoption as rapid»
– Professor Arvind Narayanan and Senior Fellow Sayash Kapoor (2)

«Min hypotese er at de som tar avgjørelsen om hvorvidt man vil kalle noe for kunstig intelligens eller ikke, ofte ser på begrepsbruken som en fordel. Man framstår kanskje som mer moderne og fremtidsrettet. Eller man får flere klikk på artikkelen man skriver»
– Nora Gjøen-Gjøsæter (3)

«Jeg liker ikke å kalle det «kunstig intelligens»
– Roger Olafsen (4)

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk (5)

Innledning

Siden lanseringen av ChatGPT i november 2022 har debatten om kunstig intelligens (KI) i utdanning og samfunn eksplodert. Samtaleroboter som ChatGPT ol. har blitt løftet frem som teknologiske mirakler – verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Mediene har vært fulle av både dommedagsprofetier og euforiske visjoner. Men bak overskriftene og den teknologiske euforien skjuler det seg en virkelighet som er langt mer nyansert, og langt mindre intelligent.

Men hva skjer når vi faktisk setter de ulike verktøyene på prøve, i møte med reelle akademiske krav og praksisnære oppgaver? Dette innlegget bygger på egne systematiske tester av ChatGPT og 13 andre lignende samtaleroboter, gjennomført over to år, og jeg vil hevde at disse verktøyene ikke representerer et paradigmeskifte i høyere utdanning, men kun en ny variant av gamle verktøy med bedre markedsføring.

Språklig briljans – faglig svakhet

ChatGPT og de ulike samtalerobotene imponerer ved første øyekast. Det skriver flytende, høflig og grammatisk korrekt. Men når systemene blir bedt om å besvare arbeidskrav utformet i tråd med høyere nivå i Blooms taksonomi fra fagemner knyttet til samfunnsinformatikk-feltet, der det ikke finnes klare svar eller evige sannheter, faller de gjennom. De klarer ikke å analysere, vurdere eller reflektere, kjernekompetanser i høyere utdanning. I stedet produserer de overfladiske svar som ofte bare reformulerer oppgaveteksten. Det som fremstår som innsikt, er i realiteten statistisk sannsynlige ordkombinasjoner.

Hallusinasjoner og falske kilder

Et gjennomgående problem er såkalte «hallusinasjoner», disse verktøyenes tendens til å dikte opp fakta, forfattere og litteratur. I flere av mine tester genererte de ulike samtalerobotene akademiske referanser som ikke eksisterer, men som så troverdige ut. Dette er ikke bare en teknisk svakhet, men en alvorlig utfordring for akademisk integritet. Når studenter bruker slike verktøy ukritisk, risikerer de å levere besvarelser som er både faglig svake, faktisk feil og helt uten den tankevirksomhet det er meningen at universitetsstudier skal oppøve.

En dårlig støtte for svake studenter

Basert på resultatene av mine tester vil bruk av samtaleroboter i fagemner der det finnes få eller ingen klare fasitsvar, i liten grad hjelpe faglig svake studenter. Tvert imot vil de antakelig forsterke svakhetene. Studenter uten grunnleggende fagforståelse klarer ikke å stille gode spørsmål (prompting), og ender opp med generiske svar uten dybde. Samtidig kan faglig sterke studenter bruke verktøyene som en slags «digital sekretær» til å strukturere tekst, oppsummere kilder eller generere utkast. Men dette krever høy grad av kritisk vurdering og etterarbeid, og studenten slipper ikke unna å selv måtte formulere sine faglige refleksjoner forankret i egen yrkespraksis og i relevant faglitteratur.

Og besvarelsene fra de faglige svake studentene, den gruppen som med størst sannsynlighet lar seg friste til å ta snarveier, er slett ikke vanskelig å oppdage, noe også andre forskere har pekt på (Molnes, 2024)

Ikke kunstig intelligens – bare avansert statistikk

Til tross for at media og andre stadig henviser til ChatGPT og lignende samtaleroboter som kunstig intelligens (KI) er disse verktøyene absolutt ikke intelligente. De forstår ikke spørsmål, resonnerer ikke, og har ingen bevissthet. De er basert på avanserte språkmodeller som gjetter neste ord basert på sannsynlighet.

Stipendiat David Samuel ved Universitetet i Oslo sin språkteknologigruppe var ganske klar i et intervju i Universitas i 2022 på at ChatGPT ikke på noen måte var intelligent (Gundersen, 2022) og Ian Venner ved Hurricane peker på at de store språkmodellene først og fremst har indeksert internett. Ved å behandle alle dataene de har tilgang til der, samt de data som ulike aktører har lagt inn i systemene, har de skapt koblinger mellom datasett basert på faste regelsett. Dette betyr at lignende informasjon grupperes sammen, vektes og kobles til andre lignende områder, noe som gir et stort nettverk av sammenkoblet data. Dette, hevder Venner, er ikke kunstig intelligens, men datamining (Venner, 2024). Og sist, men ikke minst, KI er ikke en teknologi eller ett verktøy, men et upresist «sekkebegrep» som omfatter en rekke ulike systemer/ verktøy basert på ulike teknologier hvis intelligens er ytterst diskutabel. Professor Jan Ketil Arnulf ved BI foreslår at vi bør droppe begrepet «Kunstig intelligens» og heller bruke begrepet «kunstige aktører» (Arnulf, 2024), noe jeg for min del er enig i.

Å ukritisk kalle de ulike samtalerobotene for KI er misvisende og det tilslører det faktum at disse verktøyene verken er spesielt revolusjonerende, eller spesielt nye og utelukkende er programmert for å skrive gode setninger basert på statistisk analyse av de bokstavsammensetninger en bruker legger inn.

Hva betyr dette for høyere utdanning?

Det er etter min mening ingen grunn til panikk. Samtaleroboter truer ikke utdanningen ved våre høyskoler og universiteter så lenge vi utformer eksamensoppgaver og arbeidskrav i tråd med høyere nivå i Blooms taksonomi. Oppgaver som krever refleksjon, faglig forankring og personlig erfaring, lar seg ikke løse av samtaleroboter. Tvert imot gir dette oss en gyllen mulighet til å styrke undervisningskvaliteten ved å fokusere på oppgavedesign, veiledning og vurderingsformer som fremmer dyp læring.

Avslutning – Fra hype til realisme

Samtaleroboter er nyttige verktøy innenfor begrensede områder, men ikke mer enn det. De kan brukes til oversettelser, oppsummeringer og idéutkast. Men de kan ikke tenke, forstå eller lære. Det er derfor på tide å legge bort både frykten og euforien, og møte teknologien med nøkternhet og faglig dømmekraft.

For i en tid der det rene tøv kan genereres på kommando, blir evnen til kritisk tenkning viktigere enn noen gang.

Leseliste

  1. Could AI slow science?
  2. Why Understanding AI Doesn’t Necessarily Lead People to Embrace It
  3. AI and Threats to Academic Integrity: What to Do
  4. Is AI Really a Threat to Higher Education?
  5. There’s no simple solution to universities’ AI worries
  6. Instead of punishing students for using AI, colleges and universities must provide clear, consistent guidelines and rules
  7. Why AI isn’t the threat we think it is

Kilder

  1. Arnulf, J. K. (2024). Bør vi snakke om kunstige «aktører» i stedet for «intelligens»? BI Business Review. Hentet fra https://www.bi.no/forskning/business-review/articles/2024/09/bor-vi-snakke-om-kunstige-aktorer-i-stedet-for-intelligens/
  2. Gundersen, G. M. (2022). Forsker avmystifiserer «ChatGPT»: – Den er ikke intelligent på noen måte. Universitas. Hentet fra https://www.universitas.no/ai-chatgpt-david-samuel/den-er-ikke-intelligent-pa-noen-mate/366594
  3. Molnes, G. (2024). Professor: – De flinke studentene blir bedre med KI. Utdanningsnytt. Hentet fra https://www.utdanningsnytt.no/ai-juks-kunstig-intelligens/professor-de-flinke-studentene-blir-bedre-med-ki/390405
  4. Venner, I. (2024). How AI has been hijacked, the AGI fallacy and leveraging Vertical AI. Hurricane Commerce. Hentet fra https://hurricanecommerce.com/how-ai-has-been-hijacked-the-agi-fallacy-and-leveraging-vertical-ai/

ChatGPT – et taleført eksempel på kunstig intelligens, eller…?

En bloggbok av Per Arne Godejord

Nok et KI-bilde
Noen etiskejuridiskesikkerhetsmessig og kognitive problemstillinger knyttet til samtaleroboter, og hvorfor disse verktøyene ikke er eksempler på KI

Videre til boken

Neste side ikon

Unmasking the Limits of Chatbots: A Two-Year Study on the Inadequacy of AI Tools in solving Higher-Order Thinking Assignments

Per Arne Godejord
Nord University Business School
Norway

Abstract

This paper critically evaluates the capabilities of fourteen popular chatbots evaluated over a two-year period (December 2022 to January 2025) to address higher-order academic assignments within the field of Social Informatics, specifically focusing on assignments that require complex cognitive skills in alignment with Bloom’s taxonomy.

The chatbots examined include ChatGPT, GPT UiO, Sikt KI-Chat, GPT-3 Playground, Chatsonic, Bing Chat (Copilot), Jenni, Claude, llama70b-v2-chat, Perplexity.ai, Gemini Pro, and others, using primarily their free versions. The tools were tasked with producing fact-based essays, academic responses to course assignments in various sub-fields (e.g., computer security, law, game creation, and work in virtual teams), and addressing complex academic inquiries.

Results indicated that none of the chatbots were capable of reliably producing high-quality academic outputs beyond simple fact repetition. A substantial number of responses involved fabricated information, including non-existent sources.

These findings challenge media claims that chatbots like ChatGPT can effectively meet the demands of higher education assessments and thereby making portfolio assessment in online courses impossible as examination method.

Furthermore, this paper strongly suggests that concerns about chatbots undermining academic integrity in Norwegian bachelor and master’s theses within the fields of Social Sciences and the Humanities are unfounded. In conclusion, current AI tools are far from being true artificial intelligence, and they fall short in delivering the level of academic rigor required by advanced education within the Social Sciences and the Humanities.

REFERENCES

(not complete)

  1. Bharatha, A., et al. (2024). Comparing the performance of ChatGPT-4 and medical students on MCQs at varied levels of Bloom’s Taxonomy. Advances in Medical Education and Practice. Retrieved from https://www.tandfonline.com/doi/pdf/10.2147/AMEP.S457408
  2. Crowther GJ, Sankar U, Knight LS, Myers DL, Patton KT, Jenkins LD, Knight TA. (2023). Chatbot responses suggest that hypothetical biology questions are harder than realistic ones. J Microbiol Biol Educ. 24:e00153-23. Retrieved from:
    https://journals.asm.org/doi/full/10.1128/jmbe.00153-23
  3. Elsayed, S. (2023). Towards mitigating ChatGPT’s negative impact on education: Optimizing question design through Bloom’s taxonomy. arXiv. Retrieved from https://arxiv.org/pdf/2304.08176
  4. Govender, R. G. (2024). My AI students: Evaluating the proficiency of three AI chatbots in completeness and accuracy. Contemporary Educational Technology. Retrieved from https://www.cedtech.net/article/my-ai-students-evaluating-the-proficiency-of-three-ai-chatbots-in-completeness-and-accuracy-14564
  5. Habiballa, H., et al. (2025). Artificial intelligence (ChatGPT) and Bloom’s Taxonomy in theoretical computer science education. Applied Sciences, 15(2). Retrieved from https://www.mdpi.com/2076-3417/15/2/581
  6. Herrmann-Werner, A., et al. (2024). Assessing ChatGPT’s mastery of Bloom’s Taxonomy using psychosomatic medicine exam questions: Mixed-methods study. Journal of Medical Internet Research. Retrieved from https://www.jmir.org/2024/1/e52113/
  7. Leary, A., et al. (2023/2024). Strategies for effective teaching in the age of AI. University of Notre Dame Resource Library. Retrieved from https://learning.nd.edu/resource-library/strategies-for-effective-teaching-in-the-age-of-ai/
  8. Lodge, J. M. (2023). ChatGPT consistently fails (most parts of) the assessment tasks I assign my students. Here’s why. LinkedIn Pulse. Retrieved from https://www.linkedin.com/pulse/chatgpt-consistently-fails-most-parts-assessment-tasks-jason-m-lodge
  9. Mirzadeh, I., et al. (2024). GSM-Symbolic: Understanding the limitations of mathematical reasoning in large language models. Hugging Face Papers. Retrieved from https://huggingface.co/papers/2410.05229
  10. Mitchell, M. (2023). Can large language models reason? AI Guide. Retrieved from https://aiguide.substack.com/p/can-large-language-models-reason
  11. Newton, P., & Xiromeriti, M. (2024). ChatGPT performance on multiple choice question examinations in higher education: A pragmatic scoping review. Assessment & Evaluation in Higher Education, 49(6), 781–798. https://doi.org/10.1080/02602938.2023.2299059
  12. Spencer, J. (2023). The FACTS cycle for prompt engineering. Spencer Education. Retrieved from https://spencereducation.com/facts-cycle/
  13. Susnjak, T. (2022). ChatGPT: The end of online exam integrity? ResearchGate. Retrieved from https://www.researchgate.net/publication/366423865_ChatGPT_The_End_of_Online_Exam_Integrity
  14. Volante, L., DeLuca, C., & Klinger, D. A. (2023). ChatGPT challenge: 5 ways to change how students are graded. Queen’s Gazette. Retrieved from https://www.queensu.ca/gazette/stories/chatgpt-challenge-5-ways-change-how-students-are-graded

This excerpt from an upcoming journal paper is derived from two years of testing involving 14 chatbots. It also incorporates insights from my blog book, “ChatGPT – A Talkative Example of Artificial Intelligence, or…?”.

The comprehensive findings and analyses will be fully detailed in the complete paper, scheduled for publication in 2025/2026.

Trusler i det digitale rom – KI eller ganske enkelt the usual suspects?

«Trusselaktøren er først og fremst ute etter en effekt. Hvilket virkemiddel som benyttes for å oppnå effekten er underordnet.»
– Simen Bakke, 2024 (1)

Helt siden OpenAI sin samtalerobot kom i medias søkelys i november 2022, har vi hatt en strøm av påstander om at vi nå har nådd et «vendepunkt» i utviklingen av kunstig intelligens. Og like sikkert som at vår følger vinter, kommer dommedagspåstandene om helt spesielle (og dramatiske) sikkerhetstrusler fra KI.

Hva er kunstig intelligens?

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk, 2023 (1)

«The term “artificial intelligence” has a long history—it was coined in the nineteen-fifties, in the early days of computers. More recently, computer scientists have grown up on movies like “The Terminator” and “The Matrix,” and on characters like Commander Data, from “Star Trek: The Next Generation.” These cultural touchstones have become an almost religious mythology in tech culture. It’s only natural that computer scientists long to create A.I. and realize a long-held dream.»
Jaron Lanier, 2023 (2)

«A system that most of us would think of as real AI – something that can, more or less, think like us – is known in Computer Science as Generalised Artificial Intelligence, and it is nowhere on the horizon. The term Artificial Intelligence is used instead to apply to anything produced using techniques designed in the quest for real AI. It’s not intelligent. It just does some stuff that AI researchers came up with, and that might look a bit smart. In dim light. From the right angle. If you squint.»
– Linda McIver, PhD, 2023 (3)

Store Norske Leksikon definerer KI på følgende måte: «Kunstig intelligens er informasjonsteknologi som justerer sin egen aktivitet og derfor tilsynelatende framstår som intelligent.»

Et viktig stikkord her er «tilsynelatende framstår som intelligent». Og det er på det nivået vi stadig er når det gjelder forskning og utvikling innen feltet «Kunstig intelligens». For KI, i en form som vil kunne utvikle spesifikke nye digitale trusler, kan vi beskrive på følgende enkle måte:

Maskiner med en intelligens som lar dem forstå, lære og utføre intellektuelle oppgaver omtrent som mennesker. Maskinene emulerer den menneskelige tanke og atferd for å løse alle slags komplekse problemer.

Men som Linda McIver påpeker i sitatet innledningsvis er KI i betydningen av at datasystemer tenker (og handler) som oss mennesker ikke oppfunnet og vi er heller ikke i nærheten av å finne opp et slikt system.

KI i betydningen «Artificial general intelligence (AGI)» er altså enn så lenge rent teoretisk og siden det ikke eksisterer kan det heller ikke utgjøre, eller utvikle, særegne og hittil ukjente digitale trusler.

Open AI sin samtalerobot er et utmerket eksempel på noe som ikke er KI og som samtidig er blitt brukt som eksempel på «KI-trussel».

Men ChatGPT, Microsoft CoPilot og lignende samtaleroboter er ikke eksempler på Kunstig Intelligens (KI). Dette er verktøy som baserer seg på statistiske beregninger. De er som store og avanserte dataspill, der du som spiller får følelsen av at det ikke finnes noen begrensninger på hvor du kan gå eller hva du kan gjøre. Men man skal ikke utforske en slik avansert spillverden særlig mye før en ser at i virkeligheten får man kun gå og gjøre det spillets utviklere har bestemt. Slik er det også med ChatGPT og lignende verktøy. De utfører fantastisk hurtige statistiske beregninger av tilgjengelig informasjon og sannsynlig sammensetning av bokstaver, men alt systemene gjør er bestemt på forhånd av programkode.

Altså: Samtaleroboter, og de språkmodeller de er basert på, er designet for å etterligne menneskelig språkforståelse og språkbruk, men de er fortsatt begrenset av de teknologiske og vitenskapelige prinsippene de (og all annen informasjonsteknologi) er bygget på.

Så selv om samtaleroboter kan utføre til dels imponerende oppgaver og gi inntrykk av å forstå og resonnere, er de rett og slett program som følger forhåndsdefinerte algoritmer og mønstre. De kan kun analysere og generere tekst basert på mønstre i dataene de har fått lagt inn og de parametre for tolkning (inklusive stikkord for ting programmet skal unngå) som er innprogrammert, men de har ingen egen forståelse eller bevissthet, og følgelig heller ingen intelligens.

Samtaleroboter kan altså ikke tenke, de kan ikke resonere og de foretar absolutt ingen analyser av verken det brukeren spør om eller de «svar» programkoden løfter frem. Dermed følger det rent logisk, så vel som teknisk, at en samtalerobot ikke kan «føre mennesker bak lyset» eller frykte å bli erstattet av en annen modell eller slått av.

Som professor Gary Marcus sier i sin kommentar til forskningsartikkelen «Frontier Models are Capable of In-context Scheming»; – «Yes, LLMs can do all this even if they are essentially just analogizing regurgitation machines with no real world model. They have lots of examples in the database — and little capacity to compute the internal consistency of their own actions. Worse, they do not actually calculate the consequences of their actions at all. They can’t reliably sanity check themselves for hallucinations, and they can’t reliably sanity check for whether what they are doing is harmful.»

Når vi leser denne type undersøkelser, gjerne via media, må vi huske på at samtaleroboter er dataprogram laget for å reproduserer ikke bare grammatiske og leksikalske mønstre, men også typiske mønstre for hele sjangre, type fortellinger, osv. Dette gjør de helt uten noen form for egen tankevirksomhet eller hensikt. De går bare gjennom settene med bokstaver, setter dem sammen til statistisk sannsynlige setninger og deretter i en dertil egnet samtaleform, basert på mønstrene de er blitt programmert med.

Dersom forskere (eller andre brukere) legger inn kommandoer/ promting som gir mønstre som statistisk sett peker mot «bedrag», altså det å nekte for noe eller påstå noe, eller foreta handlinger som flytting av data ol. (handlinger som altså allerede ligger innprogrammert som del av et, eller flere, handlingssett), så vil verktøyet utføre denne type «handling/ handlinger».

Det at digitale verktøy/ smarte system kan utføre handlinger de er programmert for, er ikke et tegn på at de er «intelligente» i betydningen av at de tenker og handler på egenhånd.

«Den superintelligente KI-en har på en måte alle Guds egenskaper: Den er allmektig, allvitende, og enten velvillig, eller så er den Djevelen og du er i dens nåde. Som i enhver sekt er det også en følelse av hastverk. Du må handle nå! Verdens skjebne står på spill! Og selvfølgelig trenger du penger!»
– Inga Strümke, PhD. og Anders Løland, PhD., 2024 (4)

«… unravelling the vagueness around AI is important in a broad sense, as there is also something quite dangerous about the futuristic mystique of the term AI when it blinds us to the banal and oppressive realities of certain technologies.»
– AI Myths (Project), u.å. (5)

Såkalte KI-trusler

Computers are evolving very quickly … the human brain isn’t going to evolve, and so we still need to think about cognitive psychology
– Andrew Van Schaack, PhD., 2024 (1)

«Cybersecurity is actually 90% about human behavior and 10% about technology.»
– Martin Fix, 2024 (2)

«A lot of the risk really comes from malicious actors, which exist anyway. It’s just another tool for them to use».
– Lauren Kahn, 2023 (3)

«There were stories about the fact that you could use an LLM (large language model) to give you instructions of how to make chemical weapon or bioweapon. That turns out to be false».
– Professor Yann André LeCun, 2024 (4)

I januar 2023 ble det meldt at kriminelle allerede har tatt ChatGPT i bruk, og som fagansvarlig for fagemnet «Digital beredskap» , samt annen undervisning innen informasjonssikkerhet, er jeg naturlig nok sterkt opptatt av de sikkerhetsmessige implikasjonene av verktøy av typen ChatGPT, og ikke minst videosystem som f.eks. Sora.

Og det er blant annet disse to verktøyene som løftes frem som eksempler på noe som kan skape «KI-trusler», uten at det egentlig fremkommer klart hvilke spesifikke «nye» trusler dette gjelder.

At vi nå har flere typer verktøy som kan «produsere» kildekode (i betydningen hente frem via statistiske beregninger allerede produsert kildekode som er offentlig tilgjengelig), vil selvsagt gi «Script kiddies» enda et verktøy (f.eks. Indrik Spider og Scattered Spider). Men siden verken ChatGPT eller lignende samtaleroboter er feilfrie når det gjelder kodegenerering, er det per nå et stort spørsmål om hvor effektive verktøy dette vil være.

Videogenereringsverktøy av typen Sora kan muligens (eller kanskje ikke) ha større effekt innen problemområdet Deepfake, men det er enda for tidlig å si med sikkerhet om disse verktøyene vil være mer effektive som Deepfake-verktøy enn allerede eksisterende system.

Det er jo ikke slik at vi ikke har hatt denne type verktøy før. Det som er nytt er muligheten for at «folk flest» får tilgang til kraftigere verktøy.

Og så må vi ikke glemme verktøy som etterligner stemmer. Også dette benevnes som «KI», men igjen; dette er ikke system som på egenhånd utfører angrep, men verktøy hvis bruk baseres på angriperens egen kunnskap og teknologiske forståelse og ikke minst angriperens kunnskap om hvordan mennesker reagerer.

Tilgang til verktøy kan medføre økt bruk, men det betinger at brukeren vet hvordan verktøyet skal brukes, har kunnskap om hvordan produktet (f.eks. en film eller en kildekode) kan anvendes og deretter mangler de «hemninger» eller holdninger som fraholder de fleste mennesker fra å begå lovbrudd.

Intet nytt under solen

«I’m afraid the reasons why neural nets took off this century are disappointingly mundane. For sure there were scientific advances, like new neural network structures and algorithms for configuring them. But in truth, most of the main ideas behind today’s neural networks were known as far back as the 1980s. What this century delivered was lots of data and lots of computing power. Training a neural network requires both, and both became available in abundance this century».
– Michael Wooldridge, 2023 (1)

«An LLM does not understand the semantic meaning of a sentence in a linguistic sense, but rather calculates mathematically what the most likely next word should be based on the input to the model. As neural networks are inherently probabilistic, this has earned LLMs the moniker ‘stochastic parrots’ as the model is extremely good at determining the most likely next sequence – and convincingly so – but has no inherent representation of what those words mean. For this reason, LLMs do not encode an understanding of our world, such as cause-and-effect and the relationships between objects – what linguists refer to as ‘pragmatic inference’. This is a critical limitation of LLMs that users need to understand, otherwise there is a risk of automation bias (where people place too much trust in the output from such models) and anthropomorphism (where people build a human-like rapport with an LLM, which exacerbates automation bias)».
– Adam C., GCHQ’s Chief Data Scientist and Richard J. Carter, PhD, 2023 (2)

«The problem that crops up over and over again in this field is that people anthropomorphize these computers, ascribing all sorts of desires, plans, emotions, and the like. They are machines, running code. They don’t need anything, love or hate anyone, have goals or desires. They are not conscious. They don’t care if they’re replaced by a newer version. They don’t act covertly. They are machines, running code.»
– wsf, 2024 (3)

De «nye» verktøyene, og da særlig de ulike samtalerobotene, fører ikke til noen form for ny trussel. Det vi ser er heller at:

  1. Samtaleroboter vil først og fremst gi trusselaktører rask tilgang på allerede offentlig tilgjengelig informasjon lagt ut på internett, og kunne føre til en økt evne til f.eks. sosial manipulasjon. Slike verktøy kan brukes til å muliggjøre en mer overbevisende kontakt mellom angriper og offer, inkludert opprettelse av falske dokumenter, uten de oversettelses-, stave- og grammatiske feil som tidligere ofte avslørte denne type angrep. Og jo bedre den underliggende modellen er, og jo større datagrunnlag som kan danne basis for verktøyets statistiske beregninger av sannsynlig ønskte bokstavsammensetning, jo mer skade kan slike tekstgenererende verktøy gjøre i hendene på en profesjonell trusselaktør.

    MEN det hjelper ikke med overbevisende e-posttekst, eller annen tekstbasert «samtale», dersom angriperen ikke har nok teknisk kunnskap til å f.eks. sette opp en tilhørende webside med korrekt oppsatt angrepskode som sømløst kan utføre de nødvendige operasjoner (lagre passord, brukerdata eller infisere maskiner med virus, trojanske hester osv.), eller på annen måte har god bakgrunnskunnskap om målet for angrepet.
  2. De ulike samtalerobotene kan kanskje også benyttes i etterretningsarbeid som del av innledende forberedelser til angrep mot organisasjoner eller enkeltpersoner.

    MEN tatt i betraktning de grunnleggende problemene med LLM, og særlig i den form vi møter dem i f.eks. ChatGPT, er det ytterst usikkert om etterretningspersonell og profesjonelle (avanserte) IT-kriminelle er særlig ivrige brukere av samtaleroboter.
  3. Samtaleroboter kan muligens lette utviklingen av ulike typer av skadeprogram, der relevant kode er tilgjengelig enten i verktøyets database eller på internett.

    MEN en trusselaktør må fortsatt ha den nødvendige tekniske ekspertise til å både vurdere produktet og bruke det effektivt som del av et digitalt angrep.
  4. En samtalerobot kan muligens (dersom de statistiske beregningene lander på konkret og korrekt info) lette innhentingen av offentlig tilgjengelig informasjon om utvikling av biologiske våpen.

    MEN det hjelper ikke med hurtig fremhenting av digitalt tilgjengelig informasjon om angriperen ikke har den nødvendige ekspertise i det å konstruere et biologisk våpen (eller for den del hvilket som helst annet våpen som fordrer mer enn rent grunnleggende mekanisk innsikt).
  5. Nye og avanserte videogenereringssystem tilgjengelig for alle, kan øke mengden falske nyheter der video er benyttet. Og en øking i denne type aktivitet vil igjen kunne gi en økning i falske nyheter eller ekstremistisk budskap støttet av video og derigjennom kanskje både gi inspirasjon til radikaliserte grupper og en økende mangel på tillit til nettbasert informasjon blant folk flest.

    MEN det hjelper ikke med avanserte videoverktøy hvis ikke angriperen har den nødvendige innsikt i psykologi og kunnskap om de politiske og økonomiske utfordringer som eksisterer i den region eller for den gruppe som man ønsker å radikalisere eller på annen måte påvirke.
  6. Verktøy for forfalskning av stemmer tilgjengelig for alle, kan øke mengden svindelforsøk av denne typen.

MEN heller ikke her hjelper det med avanserte verktøy om ikke angriperen har den nødvendige innsikt i psykologi, og kunnskap om hvordan foreta effektiv svindel av tilfeldige offer.

Det er ingen grunn til å tvile på at mer avanserte digitale verktøy vil kunne støtte en utvikling og styrking av eksisterende taktikk, teknikker og prosedyrer. Men kun der angriperen har den nødvendige kunnskap og trening i det å utføre digitale operasjoner mot virksomheter eller enkeltpersoner. Digitale angrep er stadig avhengig av menneskelig intelligens og kunnskap, og det er ingen ting som tyder på at dette vil endres i overskuelig fremtid.

Selvkjørende biler og autonome våpen

«The reliance on imagination and visions of technologies and future warfare characterises much of the academic and political debate on emerging technologies in the field of AWS».
– Anna-Katharina Ferl, PhD., 2023 (1)

«Unlike humans, robotaxis are not able to solve a problem they’ve never encountered before».
– Sebastien Bell, 2024 (2)

Når man skal behandle tanken om at KI per nå utgjør en ny form for trussel, kommer en ikke utenom selvkjørende biler og autonome våpen.

La oss først slå fast nok en gang at vi per i dag ikke har funnet opp maskiner med en intelligens som lar dem forstå, lære og utføre intellektuelle oppgaver omtrent som mennesker, og som emulerer den menneskelige tanke og atferd og dermed kan løse alle slags komplekse problemer.

Dermed blir verken selvkjørende biler eller autonome våpensystemer eksempler på KI, som på mystisk vis kan representere hittil ukjente trusler.

Faren med disse to eksemplene ligger i at de, som alle digitale system, er sårbare for angrep (hacking).

Men digitale angrep mot f.eks. selvkjørende biler eller ordinære biler med system tilknyttet Internett skiller seg ikke ut fra andre typer digitale angrep, selv om implikasjonene for selvkjørende biler kan bli svært alvorlig.

Dette vil gjelde også for de såkalte «autonome våpen», som i likhet med alt det vi noe upresist kaller «KI-systemer» er programmert av mennesker. Selv en robot (våpensystem) som er “autonom” utfører sine instruksjoner kun via den logikk den menneskelige programmereren har lagt inn i systemet og kan ikke tenke selv. Slike våpensystem reiser først og fremst en rekke etiske dilemmaer, og dilemmaer knyttet til krigens lover. Men det er selvsagt mulig at hackere kan forsøke å manipulere data eller ta kontroll over denne type systemer, noe som kan true militære operasjoner og skape kaos på slagmarken.

Det fremsettes også påstander i media om at KI kan føre til at terrorister kan «kjøre en autonom dronestorm over Norge». Hvilken mystisk form for «KI» som skulle kunne gi en slik «plutselig» mulighet blir ikke definert.

Siden droner allerede eksisterer og er i bruk, er det selvsagt her og nå – i dag – fullt mulig for terrorister å «sende en sverm av droner» over Norge. Forutsetningen for dette har ingen ting med KI å gjøre, men at de har droner med adekvat rekkevidde eller sender dem ut innenfor norsk territorium eller i nærheten av Norge, at dronene har våpenkapasitet og at terroristene har den nødvendige kunnskap om effektiv bruk av droner.

Hvorvidt «terrorister» er den mest sannsynlige synderen i et slikt scenario, heller enn en statlige aktør, er egentlig uviktig. Muligheten ligger der og det helt uten noen som helst form for «kunstig intelligens».

Konsekvensene av at smarte IT-systemer blir hacket, eller tatt i bruk av en fiendtlig aktør, kan altså bli alvorlige, men vi snakker stadig om ordinære digitale angrep, eller fysiske angrep som del av klassiske sabotasje- og destabiliseringsoperasjoner, basert på angripernes teknologiske kunnskaper. Og vi snakker ikke, under noen omstendighet, om helt særegne og hittil ukjente trusler a la Terminator-filmene.

Vi snakker tvert i mot stadig vekk utelukkende om smarte statlige aktører, terrorister eller kriminelle, med gode teknologiske kunnskaper og med tilgang til eksisterende verktøy.

Vi står ikke overfor nye digitale trusler

«For one, ChatGPT can only write relatively simple applications. Even if it has the skills to do more advanced coding with suitable instructions, it does not instantly provide non-developers a competitive edge over developers who understand coding and have experience in actually writing code».
– Andrej Kovacevic, 2023 (1)

«A chatbot is a single-purpose tool, not an intelligence. Human-level intelligence requires the capacity to go beyond the parameters that its developers set for itself, of its own volition. ChatGPT is preternaturally adept at mimicking human language patterns, but so is a parrot, and no one can argue that a parrot understands the meaning behind the words it is parroting. ChatGPT passing the Turing test doesn’t mean that ChatGPT is as intelligent as a human. It clearly isn’t. All this means is that the Turing test is not the valid test of artificial intelligence we thought it would be».
– John Loeffler, 2023, (2)

At fiendtlig etterretning, kriminelle organisasjoner og «folk flest» har kraftige IT-verktøy til sin disposisjon, betyr ikke at vi plutselig står over for digitale trusler vitenskapen ikke allerede har definert og pekt på.

Den økte tilgjengeligheten av slike verktøy (demokratisering av angrepsverktøy) kan derimot gi grunn til bekymring i den forstand at flere (kanskje) vil kunne utføre digitale angrep, noe som understreker behovet for å stadig styrke informasjonssikkerheten på alle nivåer, både gjennom tekniske løsninger og ikke minst økt digital kompetanse og bevissthet blant oss som borgere i et heldigitalt mediesamfunn.

Hvis den enkelte bruker av de ulike digitale medier – fra SMART-mobil til EL-bilkan avvennes den naive troen på at digitale angrep bare er noe som skjer andre eller at falske nyheter aldri dukker opp i egen SOME-strøm, vil selv ikke kraftige matematiske modeller (språkmodeller) eller kraftige videogenereringsverktøy hjelpe kriminelle eller statlige aktører til økt suksess.

Når det gjelder andre typer trusler, så som utvikling av virus- eller bakteriologiske våpen, så er det ikke samtaleroboter av typen ChatGPT som foretar utviklingen. Samtaleroboter kan ikke utvikle noe som helst. Men de kan lynraskt søke gjennom offentlig tilgjengelig informasjon allerede lagt ut på internett, og frembringe denne informasjonen til en bruker på en lettfattelig måte. I de tilfeller der informasjonen faktisk er korrekt og brukeren har de nødvendige kunnskaper til å nyttiggjøre seg av denne, letter dette selvsagt det innledende arbeidet. Men den konkrete trusselen er det terroristen og dennes praktiske og teoretiske kunnskaper som står for, ikke samtaleroboten.

Det er heller ikke «KI» som fører til eventuelt økt radikalisering og flere tilhenger til terrororganisasjoner eller ytre høyre- eller venstreparti, men operatørenes kunnskap om hvordan nå frem til aktuelle mottakere nasjonalt og internasjonalt.

Siden media flommer over av artikler om hvordan «KI» benyttes til dette og hint, kan det være greit å tenke over følgende (utheving – tekst i fet skrift – satt av meg):

«Strictly speaking, AI is not a technology at all. Facial-recognition software, translation and speech recognition programs, scheduling algorithms, and predictive models might all have different machine learning tools running in the background, but it is patently absurd to refer to them as a singular technology. We do not call everything containing copper wires «wiring».»
– R.H. Lossin, PhD. og J. Resnikoff, PhD., 2024 (3)

Konklusjon

«AI is a marketing term used to generate hype,…»
– Skyler Schain, 2023 (1)

«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor, 2023 (2)

«The results are impressively realistic, but the “basic statistics” are the same. There is no sentience, there’s no self-contemplation, there’s no self-awareness.»
– Professor Michael Wooldridge, 2022 (3)

«Here’s where we actually are, so much more boring, and so much more real: Current models trained on next-token prediction have remarkable abilities and remarkable weaknesses. The scope of those abilities and weaknesses of the current systems is not well understood. There are some applications where the current systems are reliable enough to be practically useful, though not nearly as many as is often claimed. No doubt the next generation of systems will have greater abilities and more extensive applications and will somewhat mitigate the weaknesses. What is to come is even more poorly understood than the present. But there is zero justification for claiming that the current technology has achieved general intelligence.»
– Professor Gary Marcus, 2025 (4)

«Eksempelvis kan KI brukes i påvirkningsoperasjoner, sosial manipulering, eller til å finne sårbarheter i programvare. På samme måte kan KI antagelig også brukes til å oppdage og motvirke disse operasjonene. Hvorvidt KI vil gi størst fordeler til de som forsøker å utnytte det til offensive cyberoperasjoner eller til de som forsøker å forhindre slike operasjoner, er usikkert.»
– PST, Nasjonal trusselvurdering 2024, s. 18 (5)

Det eksisterer ingen «KI-trussel» i det digitale rom.

Truslene i det digitale rom representeres tvert i mot stadig av de samme aktørene som før, av de gode gamle metodene vi kjenner fra før, og ikke minst av vår hang til intellektuell latskap.

Sosial manipulasjon blir mer og mer populært, og enkeltmenneskets bruk av sosiale medier er utgangspunkt for klassiske påvirkningsoperasjoner og like klassiske digitale angrep i form av «klikk på denne lenken». Falske nyheter blir stadig vekk produsert av ekte mennesker og bruken av avanserte verktøy er stadig basert på disse menneskenes kunnskap om hvordan nå ut til aktuelle mottakere.

Fremveksten av avanserte verktøy tilgjengelig for alle kan øke mengden digitale angrep mot viktige systemer og mengden av godt utformede falske videoer som del av angrep mot våre holdninger, og det er absolutt ikke å kimse av. Men angrepsformene er ikke nye.

Fjernstyring av selvkjørende biler eller bruk av våpenførende droner er spesifikke angrepsformer knyttet til terrorisme eller hybrid krigføring, og vil skje dersom en terrorist-gruppe eller en statlig aktører mener dette er hensiktsmessig og har den nødvendige teknologiske kompetanse til å utføre angrepet.

Radikalisering av unge eller andre grupper i et samfunn skyldes ikke «KI», men at terroristorganisasjoner, etterretningsoperatører og ekstremistiske partier har god kunnskap om hvilke samfunnsmessige problemer som kan utnyttes, og dernest hvilke digitale verktøy som kan brukes til å formulere et budskap og nå frem til flest mulige. Skal en stoppe denne type påvirkningsoperasjoner trenges det helt andre virkemidler enn å regulere ulike typer digitale verktøy. Økt utdanning, økt bevissthet i befolkningen som helhet og politiske tiltak for å utjevne/ fjerne sosiale ulikheter, fattigdom, utenforskap ol. er viktige tiltak her.

Angrep rettet mot den politiske og kulturelle verdien av individets evne til å tenke og skape på egenhånd, er ikke utført av «KI», men av kommersielle krefter som ønsker mest mulig salg av spesifikke verktøy og aktører som ønsker å bryte ned liberale demokratiers motstandskraft mot totalitær påvirkning. Også her vil det være utdanning og bevisstgjøring som vil kunne være avgjørende.

Trusselaktørene er uansett angrepsform og verktøybruk stadig vekk den vanlige gjengen av etterretningsoperatører fra fiendtlige nasjoner, terror-grupper, større kriminelle nettverk og mer eller mindre dyktige enkeltkriminelle. Disse aktørene benytter en rekke digitale medier og verktøy i sitt arbeide, men angrepene mot oss er basert på aktørenes intelligens og kunnskap om både teknologi og psykologi. De er ikke basert på en mystisk, ikke-eksisterende digital intelligens.

Og når det gjelder de stadige digitale angrepene mot vårt heldigitale mediesamfunn, så er det fortsatt den enkelte borgers egen bevissthet og egen kunnskap om det digitale som er nøkkelen til å avverge denne type angrep.

Mediestøyen knyttet til fantasiene om at vi nå har utviklet «Kunstig Intelligens» endrer ikke dette enkle faktum.

En forkortet utgave av dette blogginnlegget kan også leses på Trønderdebatt.

NB: En viktig trussel som ikke er nevnt her, er mulighetene samtaleroboter har til å samle informasjon om sine brukere. Særlig obs skal en være på de kinesiske verktøyene som f.eks. DeepSeek som mange – også nordmenn – virker å ha lagt sin elsk på. Dette er absolutt ikke en app man bør ha på sin SMART-mobil!.

LESELISTE

  1. Combating AI-Driven Disinformation: A Reward-Based Model for Enhancing Civic Engagement and Election Integrity
  2. The Intersection of Artificial Intelligence and Social Engineering: Next-Generation Threats
  3. Generating Terror: The Risks of Generative AI Exploitation
  4. THE DARK SIDE OF LARGE LANGUAGE MODELS (2 deler)
  5. Tell me what you don’t know: large language models and the pathologies of intelligence analysis
  6. CHATGPT – EN TRUSSEL MOT DEMOKRATIET
  7. ChatGPT, Grok, Gemini and other AI chatbots are spewing Russian misinformation, study finds
  8. Social engineering with ChatGPT
  9. Security threats in AIs such as ChatGPT revealed by researchers
  10. Is ChatGPT a cybersecurity threat?
  11. Unveiling the Dark Side of ChatGPT: Exploring Cyberattacks and Enhancing User Awareness
  12. 11 Convincing ChatGPT and AI Scams to Watch out for in 2024
  13. ChatGPT – Learning Enough to be Dangerous
  14. Everything to Know About OpenAI’s New Text-to-Video Generator, Sora
  15. AI Is an Existential Threat—Just Not the Way You Think
  16. AI hype as a cyber security risk: the moral responsibility of implementing generative AI in business
  17. The Use Of Artificial Intelligence Technologies In Information And Psychological Warfare
  18. IS-tilhengere bruker KI til å spre terror-propaganda
  19. Artificial intelligence for cybersecurity: Literature review and future research directions
  20. Attacking Artificial Intelligence: AI’s Security Vulnerability and What Policymakers Can Do About It
  21. What are the AI security risks?
  22. The potential terrorist use of large language models for chemical and biological terrorism
  23. En ny pandemi er på trappene
  24. Slik kan KI gi for stor oversikt over samfunnet: – Åpne data truer Norges sikkerhet
  25. How to better research the possible threats posed by AI-driven misuse of biology