Academic Social Media – reaching out to the public, or Maskirovka the Academic Way?

not everything that can be counted counts, and not everything that counts can be counted.

William Bruce Cameron, 1963

Academic social media: game-changer or smoke and mirrors?
We’re told to tweet, post, and share to boost impact—but does it really work? Behind the glossy badges and inflated scores lies a harsh truth: most “engagement” is just academics talking to academics. Add copyright risks, endless profile updates, and metrics you can hack in minutes, and the promise of outreach starts to look like a digital masquerade. Real influence? It still comes from solid research, trusted networks, and meaningful teaching—not chasing likes.

Climbing the Social Media Pole

I’ve been fooling around on Internet since 1994 and most of the time in a professional capacity. Seriously influenced by people like Howard Rheingold, and curiously exploring the various possibilities for academic use of WWW, I’ve built quite a presence online over the years using every Social Media (or Web 2.0 as it was once called) tool as soon as it appeared. But as everyone that have been active users of Internet know, keeping track of multiple profiles, and keeping them alive and updated, is exhaustingly time consuming. At a certain moment, I reached a point where I felt nauseated and tired of everything connected with the Net and withdrew from almost all online tools.

But it is not easy to keep completely away from social media. As a conscripted officer in the Norwegian Civil Defence with staff duties (2013 – 2021) Facebook was the main source of information on what went on within my Civil Defence district. And truth be told; I also missed the online contact with my old team mates from the Home Guard School and Training Centre (2012). So back I went, creating a new profile. As a dean, I had some lecturing so Twitter became, again, a useful tool. But that was it, I thought. No more profiles on the Net.

And then, in 2014, I went back to full time lecturing and everything changed. Because now, having papers publicised in international peer reviewed journals is no longer enough. Our university managers, as well as our lords and masters from the Ministry of Education, speaks of reaching out to a broader audience and that as much as possible of our work are to be open access. And suddenly one is urged to go back on the Net and immerse one selves in various online services.

The tools and all the work that follows

There are infinite possibilities of reaching far and wide using various social media services, and let’s face it; it is difficult to reach out to a large audience from a scientific journal. Not only are these journals mostly read only by our colleagues, but the possibility of having our journal entries cited by fellow researchers are slim. Not because we necessarily write badly or that our work is uninteresting, but because so many of us works within small niches. I have my selves spent most of my academic career pondering how to get computer science students enthusiastic about Social Informatics, or how to motivate students of asynchronously online courses to carry on. While this is important enough for me, and hopefully also for my students, it is neither rocket science nor is it the most popular scientific field in the world. But will enrolling in various Social Media services help you to reach out to a larger audience? Not necessarily.

Let’s have a look at some of the things you might do to be visible as an academic online. Many university managers will point you in the direction of ResearchGate.net and Google Scholar. The last one in order to create an overview of where and how often your papers are cited by others, and the first one because… well, I guess because “everyone else” is there and this is the only academic profiling tool they know of (a part from Google Scholar). So, by creating profiles on these two services, all your troubles are over right? Wrong! To utilise both Google Scholar and ResearchGate demands quite an effort. Like most social media profiles, they need constant updating to stay interesting and/or correct as for your list of publications, and preferably they should be paired with other tools like TwitterORCIDImpactstoryMendeley and Quora. This will increase your online presence and could work favourably as for your so called “impact score”.

ResearchGate have developed into a well-known social networking site for researchers, where they may share papers, ask and answer questions, and find collaborators. In order to use the site, you need to have an email address at a recognized institution or to be manually confirmed as a published researcher in order to get an account. After signing up you create your user profile and might start uploading research papers, data, chapters, presentations, etc. You may also follow the activities of other users and engage in discussions with them, and this way start building a network and perhaps even enter into research cooperation with one or more of your contacts.

Impactstory is an open source, non-profit and web-based tool that provides altmetrics to help researchers measure the impacts of all their research outputs—from traditional ones such as journal articles, to alternative research outputs such as blog posts, datasets, and software. You may use your Twitter account to sign up, but how much this site uses your Twitter activity to measure your impact score is unclear to me. Signing up to Impactstory quicly pushes you to ORCID, as this is the key tool Impactstory uses to gain an overview of your publications. According to ORCID its aim is to aid «the transition from science to e-Science, wherein scholarly publications can be mined to spot links and ideas hidden in the ever-growing volume of scholarly literature». They also give the researcher a possibility to have «a constantly updated ‘digital curriculum vitae’ providing a picture of his or her contributions to science going far beyond the simple publication list».

Mendeley is a desktop and web program produced by Elsevier for managing and sharing research papers, discovering research data and collaborating online, and Twitter I guess does not need much of an introduction. To use Twitter as a dissemination tool you must have followers, preferably many. Your follower count is considered a measure of your influence. The more followers you have, the more you’ll attract, and – in theory – the more you can use your influence to reach your peers, students and other interested parties. But to get followers you have to put in a lot of time of strategic actions, and at the end of the day you might not really know if any of this had any effect or mattered at all. There are no free lunches in the world of Social Media, and just creating some profiles and then sit back and relax is not really an option.

Since all this is mainly about creating and measuring “impact”, utilising digital tools, the more activity you have online, the better. But most of these tools give poor results if you do not already have international papers. So, if you are an academic who so far have been content with focusing on excellent lecturing and close contacts with students, you will have to make quite an effort in order to have any significant use of these tools. And as soon as you have created all these profiles you are trapped in a never ending story of continuously updating them.

The not so open access, legal problems and some unsettling thoughts

ResearchGate strongly encourages its members to upload scientific papers, and many do so. This creates the impression that the platform is an open-access provider. However, there are two major issues with this. First, uploading journal articles usually breaches copyright law. Second, others must sign in to ResearchGate to read these papers. In reality, this makes it a closed-access service, potentially hosting a large number of copyright violations. Academia.edu, a similar social media site, faces the same problems.

A third issue with ResearchGate, when I first wrote about this, was its use of scores. These scores were meant to reflect your “impact”, but the calculation was not transparent, making it hard to understand what data they were based on. Statements like “Your score is higher than 30% of ResearchGate members” encouraged, in my view, an unhealthy focus on questionable metrics and even the possibility of “gaming” the system.

But what does “impact” really mean? Traditionally, we look at journal rankings or how often our work is cited. Sites like ResearchGate and Impactstory aim to create a broader measure of impact, but without clearly defining the term. Would your score rise if you follow researchers with large networks and high RG scores? What if someone visits your profile using a proxy that randomly changes their IP address? Does a mention in a Wikipedia article, written and edited anonymously, truly reflect impact? Would adding a link to your RG profile on Twitter increase visits—and if so, would that affect your RG score? Twitter might drive curious visitors to your profile, but does that mean your work is reaching a wider audience? I don’t think so. A click on a profile link doesn’t necessarily show genuine interest. And who are your Twitter followers—members of the public, or fellow academics and your own students? If it’s the latter, we’re back to the old problem: journal papers being read only by a small circle of peers.

In 2017 some of my metrics looked like this:

  1. Twitter

2. Impactstory:

3. ResearchGate

The statistics for my tweet are rather straight forward, at least to a certain extent. It seems that 180 persons interacted with it in various ways. But of course, on the Net the systems can only count IP-addresses, and therefore what may seem like individual interactions might not necessarily be so. How the number of 9, 357 is figured out is not clear, neither what  «impressions» really entail or why it should matter in the «real world». Impactstory uses the gamification element of badges. Since this tool also focuses on open access, you might get an Open Access badge. I did not get it as I have my papers in ordinary journals, but by uploading a large number of drafts, or even just resumes of papers in for instance ORCID I would not be surprised if Impactstory considers this an adherence to the principles of open access, and award you a badge. And in ReserachGate I achieved the score of 6.49, but have absolutely no clue as to how RG calculated this.

Wanting to understand how ResearchGate counted its impact points in 2017, I repeated the experiment done by professor Kjetil Haugen in 2015. Cloaking my identity using various proxies I viewed my own profile, read and downloaded selected works, and additional shared selected works using one of the Social Media tools RG have made available for this purpose. This was made easy since my selected tool let me share links by simply creating an account with no checking for authenticity. When I started the experiment 1th of March 2017 my RG score was 4, but by the end of the experiment on 10th of March the same year it had increased to 6.49. My conclusion therefore is that nothing has changed since Haugen did his experiment in 2015. In my opinion this renders RG useless as a valid system for measuring individual researchers academic impact. The same goes for Impactstory, and I suspect it will also be true for most of the sites that claims to measure your impact.

My main problem with these Academic Social Media tools is why should these scores matter? They are easy to manipulate, and does not give any real evidence of scientific impact or the individual researchers willingness to be part of the open access movement. Neither do they necessarily give a clear picture of a researcher’s true network. Twitter, who as such is not an Academic Social Media, but might be used as a tool for dissemination, is a great tool to use with students in specific settings, but so far I have found little to prove that my use of it had any impact outside my lectures. But this might be my fault entirely.

Unclimbing and reclimbing the Social Media Pole

Despite (or perhaps because of) having participated in various Social Media for years I again deleted most of my social media profiles in 2017 and 2021. The amount of work you must put into these tools far outweigh any gains they might have and only provides an unnecessary distraction. So far, my most successful international contacts and cooperation’s have been the result of personal acquaintance, not any presence on Academic Social Media.

I re-entered Twitter in 2020 and this time I decided to focus on Preparedness and Cyber Security. My motivation for getting back to Twitter was primarily to keep me informed on various Cyber Security and Preparedness matters. Most of my tweets are done automatically via my Paper.li newspaper.

Looking at my Twitter Analytics two years later, in 2022, I was left with the same question as before; Of what use is this? Twitter has its merits as a tool for discussing topics of interests with other professionals , but not as a tool for dissemination to a broader general public.

Nice that my tweet above got 11 retweets and 17 likes and earned "impressions" but I doubt that it had any impact on parliamentary politicians will to invest in Civil Defence.

Another example of how  a Twitter account tries to create attention to an article is this from Alltinget.no:

According to Alltinget.no my article created a lot of engagement. There is no data on the web page of Alltinget that gives any information verifying the statement. But as we see from the engagement details of this tweet, it did not stir much interest on Twitter.

In May 2024 I again deleted my account on Twitter (now rebranded as X), on the grounds that it had become a «dark» area for constant disinformation and fake news. I had enrolled myself in the work of NAFO, but in the end the whole platform seemed irrelevant as a serious arena for communication and with few or little possibilities for actual combating Russian propaganda.

My profile background picture on Twitter (Now X)

What remains of my social media presence outside blogging is a private account on Instagram, an account on Pinterest (none of them in use, but not deleted), and a Flickr account linked to the Getting Involved project. And I have kept my main YouTube account, but only as documentation of my use of trigger videos in teaching.

In June 2025 I decided to explore Bluesky and in December 2025 I again created a profile on Linkedin, albeit without much enthusiasm (which is reflected in my activity there).

And why this return to two social media platforms, despite my distaste for these services? The answer is twofold: partly because I teach about the professional use of social media – including their role as tools for spreading fake news – and partly because it might seem odd that an Senior Lecturer in Computer Science, who has been an active user of the Internet/Web for dissemination since 1995, is not visibly present on any social media in 2025.

Some last ponderings

It all comes down to trust, but even so if we absolutely must be counted and measured, I think the most sensible is to forget about metrics offered by so called Academic Social Media tools and rather focus on papers in scientific journals (though, we have to deal with dubious impact factors also here), newspaper articles (that might reach the general public), and student assessments (that will tell us if we reached our students or not).

Also, I think it would be worthwhile to establish a system for peer reviewing of online lecture resources, like the former Intute project. This might encourage researchers to utilise blogs, wikis, etc. as parts of their lecturing, as well as potentially reaching a larger audience than just via journals. Though, again, we do not really know if the public actually search for such blogs, or that our particular field will generate any public interest. In fact, a small study done in 2013 concludes that most academic blogs are made for our professional peers, rather than for the general public. So perhaps we should be more than happy if we just manage to reach our students hearts and minds through our blogs and other social media tools?

While I am confident that most academics use social media tools appropriately, platforms such as ResearchGate and Impactstory may encourage what could be called “Facebook behaviour”: presenting an idealised image of thriving research activity and professional happiness. These tools can serve as mechanisms for maintaining visibility and securing one’s academic profile—a complex set of measures that might mislead management about the true presence and impact of one’s work. In short: Maskirovka, the academic way.

Addendum: What’s Changed as of December 2025

Since this post was first written, the academic communication landscape has evolved significantly:

  1. ResearchGate Metrics & Copyright
    • The RG Score was retired in 2022; current indicators (e.g., “Research Interest Score”) remain opaque and should be interpreted cautiously.
    • A 2023 settlement with major publishers introduced upload‑time rights checks and private sharing options, reducing—but not eliminating—copyright risk.
  2. ORCID and Persistent Identifiers
    • ORCID adoption is now near‑universal in many regions and required by funders and journals. Maintaining an up‑to‑date ORCID record is essential for compliance and interoperability.
  3. Open Access Mandates
    • Plan S continues to shape European OA policy, and the U.S. OSTP memo requires immediate public access to federally funded research by Dec 31, 2025. Repository‑based OA is now the default route; social networks should serve as signposts, not primary access points.
  4. Social Media Shifts
    • X/Twitter’s role in scholarly communication has diminished due to API restrictions and rising misinformation. Many academics have migrated to Bluesky or other platforms, though network effects remain a challenge.
  5. Altmetrics and Impact Evidence
    • Altmetrics are best treated as early attention signals, not definitive measures of impact. Combine them with citations, policy uptake, and qualitative evidence for a robust narrative.
  6. Metric Manipulation Risks
    • Citation gaming and AI‑generated content have increased, especially on Google Scholar.

But I feel my core message is still relevant: Likes and follower counts are not proxies for societal impact. We should prioritise quality research, compliant open dissemination, and meaningful teaching evidence over vanity metrics.

Some interesting links for further reading


First published on LiveJournal.com on 03/10/2017. Edited and updated on 23/06/2021, 02/11/2022, 08/05/2024, 28/06/2025 and re-published on 08/12/2025.

Case: Låste dører ved Universitetet i Lillevik

«Universitetssektoren er et enkelt og attraktivt sted å drive med spionasje»

Ola Kaldager, tidl. sjef E14

I en tid der krigen raser utenfor vår egen stuedør, og Russland og Kina driver en digital og analog skyggekrig mot både Norge og andre liberale demokratier, er universitetene ikke lenger en fredet oase. En rekke sikkerhetstiltak må nå implementeres, men hvordan gjøre dette slik at det er med å skape god sikkerhetskultur isteden for motstand? Det følgende case ser på et klassisk tilfelle.

Innledning

Universitetet i Lillevik har innført et vedtak om låste dører til ansattes kontorområder på flere studiested. Tiltaket ble annonsert uten at ledelsen offentliggjorde en åpen trusselvurdering eller forklarte hvilke alternativer som var vurdert. Beslutningen fører til sterke reaksjoner fra ansatte og studenter; redusert tilgjengelighet, spekulasjoner om hvem eller hva som utgjør trusselen, dører som bevisst holdes åpne – bl.a. ved at låsemekanismene dekkes av elektrikertape – i protest og et informasjonsvakuum fylt av rykter. Det igangsettes kampanjer mot låsing av dører og mot militarisering av Lillevik universitet. Noen opplever økt trygghet; andre opplever svekket tillit og frykt for at en symbolsk handling (sikkerhetsteater) skjuler reelle sårbarheter som ikke er skikkelig adressert.


Hva skjer i dette caset

  • Beslutningen er teknisk enkel, kommunikasjonsmessig svak: låste dører uten åpne, etterprøvbare trusselvurderinger.
  • Reaksjonene spenner fra støtte til aktiv motstand, der sikkerhetstiltaket blir direkte underminerte.
  • Resultatet: mulig sikkerhetsteater; synlige tiltak som gir følelse av trygghet uten å redusere reell risiko, kombinert med svekket sikkerhetskultur og institusjonell legitimitet.

Læringspunkter for beredskapsstudenter

  1. Skille mellom sikkerhetsteater og reell sikkerhet
    • Sikkerhetsteater: tiltak som er synlige og symbolske, men mangler risikobasert begrunnelse og måling.
    • Reell sikkerhet: krever trusselmodellering, konsekvensanalyse, målbare tiltak og kontinuerlig evaluering.
  2. Kommunikasjon som sikkerhetstiltak
    • Åpenhet om vurderingsgrunnlag, alternativer og konsekvensanalyse er en integrert del av effektiv risikohåndtering.
    • Manglende forklaring skaper informasjonsvakuum, rykter og motstand som undergraver sikkerheten.
  3. Legitimitet og sikkerhetskultur
    • Tiltak må være forankret i både faglige vurderinger og i dialog med brukerne for å opprettholde legitimitet.
    • Tillit fremmer samarbeid om rutiner; mistillit fører til sabotasje og dårlig etterlevelse.
  4. Risikoavveiing og brukerperspektiv
    • Sikkerhetstiltak må avveies mot tilgjengelighet, læringsmiljø og institusjonens samfunnsoppdrag.
    • Involvering av brukere reduserer utilsiktede konsekvenser og øker praktisk etterlevelse.

Sjekkliste for reell, risikobasert trygghet

  • Har ledelsen en skriftlig trussel- og sårbarhetsanalyse?
  • Er alternativer vurdert og dokumentert?
  • Er konsekvenser for læringsmiljø og tilgjengelighet analysert?
  • Finnes målbare suksesskriterier og kontrollmekanismer (f.eks. tilgangslogger, øvelser)?
  • Er kommunikasjonsplan og involveringsstrategi implementert?
  • Er det en plan for revisjon og læring basert på erfaringer?

Praktiske øvelser

  • Øvelse 1 — Rask risikovurdering (30–45 minutter)
    Bruk forumet i Canvas til å organisere dere i team (maks 6 deltakere pr. team). Benytt så Microsoft Teams (dere har tilgang til Nord universitet sin Office-pakke for studenter) som verktøy for samhandling. Hvert team lager deretter en kort trusselvurdering for å begrunne (eller avvise) låsing av kontordører ved et studiested. Teamene skal identifisere aktør, motivasjon, sannsynlighet, konsekvens og foreslå tre alternative tiltak med kost-/nyttevurdering.
  • Øvelse 2 — Kommunikasjonsplan (45 minutter)
    Hvert teame utarbeider en kommunikasjonsstrategi for ledelsen: Hvilke fakta deles; hvilke usikkerheter opplyses; hvordan involveres studenter og ansatte; tidslinje for evaluering og justering.
  • Øvelse 3 — Rollelek: å håndtere motstand (30 minutter)
    Simuler et digitalt allmøte via Teams med ansatte og studenter hvor ledelsen presenterer beslutningen. Et team spiller ledelse, et team skeptikere. Øv på åpen dialog, svar på kritikk og konkrete tiltak for å bygge tillit.
  • Oppgave etter økten
    Skriv et kort notat (max 800 ord) med anbefalt vei videre for Universitetet i Lillevik: beslutningsgrunnlag, kommunikasjon, implementeringskontroller og evalueringspunkter. Begrunn synspunktene i relevant litteratur, med kildehenvisning i tekst i tråd med APA-stilen. Legg så inn et refleksjonsnotat (eget kapittel) i notatet der både teamenes og den enkeltes tanker om individuelle og felles læringsprosesser og utbytte knyttet til det å jobbe med dette arbeidskravet beskrives. Til endelig innlevering (mappestenging) tas også med eventuelle endringer som er utført etter råd/veiledning. Dette gjøres i et eget underkapittel i fellesdelen . Helt til slutt i notatet skal det settes opp en litteraturliste i APA-stilen.

Refleksjonsspørsmål til slutt

  1. Hvordan burde ledelsen i dette caset balansert behovet for å publisere en redigert trusselvurdering for å bygge legitimitet og medvirkning mot risikoen for at offentliggjorte opplysninger svekker operasjonell sikkerhet?
  2. Hvordan kan man balansere behovet for tilgjengelighet i akademia mot kravet om sikkerhet?
  3. Når blir et synlig sikkerhetstiltak mer skadelig enn nyttig for den totale sikkerheten?
  4. Hvilke kommunikasjonsprinsipper ville du brukt for å unngå informasjonsvakuum og rykter i dette caset?
  5. Hvordan ville du målt om låste dører faktisk reduserer relevant risiko?

Leseliste

Når akademia blir frontlinje: Digital beredskap i møte med etterretning, kriminalitet og kriser

Dette innlegget er en del av min formidling tilknyttet Nasjonal sikkerhetsmåned 2025, og er utgangspunktet for følgende innlegg i medier:

1) Digital beredskap er en borgerplikt, Nordnorsk debatt, 07.10.25

2) Oktober i akademia: Digital beredskap når Russland og Kina banker på labdøra, Avisa Nordland, 08.10.25

Innledning

Oktober er sikkerhetsmåned – i Norge koordineres kampanjen av NorSIS/NSM med årets tema digital beredskap. Målet er å løfte sikkerhet fra «IT-oppgave» til ledelsesansvar, kultur og øvelse – i hele virksomheten. Parallelt markerer EU European Cybersecurity Month, ledet av ENISA. Begge minner oss om at robusthet bygges gjennom kontinuerlig arbeid, ikke én måned i året.

«Når en person styrker sin digitale bevissthet, styrker vi også Norges samlede digitale robusthet. Med den økte aktiviteten blant kriminelle på nett og dagens sikkerhetspolitiske situasjon er dette viktigere enn noensinne» skriver NorSIS og NSM i sin rapport «Nordmenn og digital sikkerhetskultur 2025».

Hva betyr dette for oss i akademia?

Norsk akademia er attraktiv – og åpen

Denne åpenheten gir vitenskapen kraft, men utnyttes også av fremmede staters tjenester som tålmodig setter sammen «biter» fra konferanser, prosjekter og digitale plattformer til strategiske fordeler. Norske trusselvurderinger peker særlig på Russland og Kina som drivere av etterretning, påvirkning og sammensatte operasjoner mot forskning, næringsliv og kritisk infrastruktur.

Samtidig er ikke trusselen kun «statlig». Løsepengeangrep, tredjeparts‑sårbarheter og sosial manipulering rammer utdannings- og helsesektor globalt – ofte gjennom kjente svakheter og menneskelige feil.

Hvorfor akademia er en frontlinje – og hva «digital beredskap» faktisk betyr

Forskningens attraktivitet + digitalt økosystem + åpen kultur = høy risiko

Etterretning og påvirkning utgjør en økende trussel mot europeisk forskning og teknologimiljøer, både fysisk og digitalt, slik E‑tjenestens Fokus 2025 og PSTs nasjonale vurdering understreker. Samtidig viser Riksrevisjonens funn fra 2024 at operasjonell sårbarhet i sektoren er betydelig: penetrasjonstester ga full kontroll i to universitets- og høyskolevirksomheter, og forskeres utstyr ble kompromittert i en tredje – et tydelig tegn på mangelfull styring, oversikt og etterlevelse.

Globalt rapporterer utdanningssektoren vedvarende press fra løsepengeangrep og datatyveri, der phishing og utnyttelse av sårbarheter er de mest brukte inngangsveiene. I denne konteksten blir digital beredskap – evnen til å forutse, forebygge, respondere og gjenopprette på teknisk, organisatorisk og menneskelig nivå – avgjørende for hele verdikjeden, og står sentralt i den nasjonale kampanjen for 2025.

Styringssignaler: Åpen – men ikke naiv

Det norske forskningssystemet skal være «så åpent som mulig, så lukket som nødvendig». Regjeringens Meld. St. 14 (2024–2025) løfter forskningssikkerhet som nøkkel for å bevare åpenhet. Fra 2025 forventer Forskningsrådet at prosjekter vurderer og håndterer forskningssikkerhet for å få støtte. HK‑dir presiserer at styring av informasjonssikkerhet og personvern er en del av sektoransvaret og skal forsterkes.

På EU‑nivå kom Rådets anbefaling om forskningssikkerhet våren 2024 (undønsket kunnskapsoverføring, utenlandsk påvirkning, etikk/integritet), og ENISA fulgte opp NIS2 med teknisk gjennomføringsveiledning som konkretiserer krav til risikostyring og tiltak. I norsk kontekst er kravene også skjerpet via digitalsikkerhetsloven.

Hva sier trussel- og risikobildet?

Russland og Kina intensiverer sin innsats innen etterretning, påvirkning og fordekte operasjoner, med særlig fokus på teknologi, energi, maritim og arktisk aktivitet – samt kunnskapssektoren. Samtidig endrer kriminelle taktikk, med økt bruk av datatyveri og utpressing uten kryptering, større utnyttelse av tredjepartsleverandører og rask masseutnyttelse av sårbarheter. I takt med denne utviklingen skjerpes både nasjonale og internasjonale regelverk og forventninger, noe som stiller høyere krav til sikkerhet og beredskap på tvers av sektorer.

Avslutning

Digital beredskap i akademia handler om faglig aktsomhet like mye som brannmurer. Vær åpen, men ikke naiv. Kartlegg verdier, kjenn truslene, bygg tiltak inn i prosjektløpet, og ikke minst – øv. Det hjelper ikke med Nano elæringskurs hvis de ansatte aldri øves. Det er slik vi beskytter forskningsfrihet, samfunnsoppdrag og nasjonal sikkerhet.

Leseliste

  1. Trusselvurderinger 2025: PST NTV og E‑tjenesten FOKUS 2025.
  2. NSM Risiko 2025sårbarheter, tiltak og anbefalinger.
  3. Digitalsikkerhetsloven (NIS2) – NSM veileder (2025).
  4. Meld. St. 14 (2024–2025): Sikker kunnskap i en usikker verden
  5. Sikt – Cybersikkerhetssenteranbefalinger (verdikart, klassifisering, kontinuitet, tiltakskort mot løsepengevirus).
  6. NCSC (NSM/NorCERT)nasjonal responsfunksjon for alvorlige cyberangrep.
  7. REN‑ISAC – hendelseshåndtering og deling for høyere utdanning (NA). ren‑isac.net
  8. MITRE ATT&CKfelles taksonomi for angripernes taktikker/teknikker (TTPs).
  9. OECDIntegrity and security in the global research ecosystem.
  10. NATO CCDCOEbiblioteksamling og håndbøker for cyberoperasjoner/beredskap.

Se også

Mine faglige arbeider knyttet til informasjonssikkerhet og digital beredskap

Den farlige drømmen om KI

En forkortet og omredigert versjon av dette innlegget er publisert på Altinget.no

That tech fantasy is running on fumes. We all know it’s not going to work. But the fantasy compels risk-averse universities and excites financial speculators because it promises the power to control what learning does without paying the cost for how real learning happens. Tech has aimed its mid revolutions at higher education for decades, from TV learning to smartphone nudges. For now, A.I. as we know it is just like all of the ed-tech revolutions that have come across my desk and failed to revolutionize much. Most of them settle for what anyone with a lick of critical thinking could have said they were good for. They make modest augmentations to existing processes. Some of them create more work. Very few of them reduce busy work.

Professor Tressie McMillan Cottom, 2025 (1)

Tross hypen rundt såkalt «kunstig intelligens», viser både egne tester og faglige vurderinger fra både nasjonale og internasjonale forskere, at samtaleroboter som ChatGPT mangler både intelligens og innsikt. De er avanserte tekstgeneratorer som imiterer språk uten forståelse, og dagens medieskapte myter om tenkende maskiner kan fort bli en beredskapsmessig trussel.

Innledning

«No, Bloomberg News, ChatGPT did not get an MBA. No, NBC News, ChatGPT did not even pass an exam.»
– Professor Melanie Mitchell (2)

«LLM tech is enjoying a moment in the sun, branded as «artificial intelligence» and inserted into half the world’s products and counting. The promise of an always-available expert who can chew the fat on a range of topics using conversational natural-language question-and-response has proven popular – but the reality has fallen short, thanks to issues with «hallucinations» in which the answer-shaped object it generates from a stream of statistically likely continuation tokens bears little resemblance to reality.»
– Gareth Halfacree (3)

«LLMs are models of human written communication – they are built to replicate perfectly the same biased ‘ideological agendas’ present in their training data,» (…) «And the nature of training data is that it has to exist – literally, in order for an LLM to have a perspective on a topic, it needs to consume material about that topic. Material is never neutral. And by definition, the LLM alone cannot balance consumed material with the ABSENCE of material.»
– Joshua McKenty (4)

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår»
– Bjørn Stærk (5)

«Most of the hype is bullshit. AI is already full of grifters, cons, and snake oil salesmen, and it’s only going to get worse.»
– Baldur Bjarnason (6)

I løpet av de siste årene har samtaleroboter som ChatGPT, Copilot, Gemini ol. blitt løftet frem som teknologiske mirakler og verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Men bak medieoverskriftene og de euforiske uttalelsene fra politikere og næringslivsaktører skjuler det seg en virkelighet som er langt mer nyansert, til dels ytterst kjedelig og absolutt uten noen form for intelligens.

Som informasjonsviter med et særlig blikk for informasjonsteknologiens pedagogiske og samfunnsmessige implikasjoner siden 90-tallet, har jeg over to år testet 14 ulike samtaleroboter på eksamensoppgaver knyttet til fagfeltet Samfunnsinformatikk.

Samtlige oppgaver krevde analyse, syntese og evaluering og var utformet for å måle studentenes evne til faglig refleksjon knyttet til helt spesifikt fagstoff, evne til å knytte dette til egen yrkesvirkelighet, evne til å reflektere over egen læring og evne til å finne gode (og etterprøvbare) fagkilder for å bygge opp under egne faglige refleksjoner.

Resultatene var entydig negative og gjorde det krystallklart at disse verktøyene verken er intelligente eller kreative. Og de er absolutt ikke faktainnhentere. De er avanserte statistiske tekstgeneratorer klart bundet av algoritmer og mønstergjenkjenning, ikke forståelse.

Både mine tester, og internasjonal forskning på hvordan samtaleroboter behandler eksamensoppgaver knyttet til høyere nivå i Blooms taksonomi, viser at mediehistoriene om at dette var verktøy som lett kunne skrive gode universitetsbesvarelser uansett fagemne ikke stemmer. Og amerikanske forskere har for lengst vist at påstandene om at ChatGPT, og lignende verktøy, klarte bachelor og mastereksamener ikke holdt vann.

Som førsteamanuensis Inga Strümke påpekte i NRK i mai 2025; «Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten». Til tross for dette teknologiske faktum ser vi stadig – selv nå i 2025 – at enkelte akademikere mener at samtaleroboter kan besvare alle typer eksamensoppgaver og at de samme systemene kan avsløre tekster skrevet av «KI». At dette er fantasier som for lengst er tilbakevist, virker å være helt ukjent.

Professor Jon Whittle er en av mange forskere som prøver å holde fagområdet Kunstig Intelligens på et saklig og vitenskapelig nivå. I sin forelesning «There’s no such thing as Artificial Intelligence» påpeker han følgende:

Skjermdump av slide

Men til tross for forskere som professor Whittle og det faktum at absolutt ingen av de vidløftige påstandene knyttet til samtaleroboter er innfridd eller validert av ekstern forskning, lever mytene om KI videre og samtaleroboter er plutselig blitt inngangsporten til drømmen om tenkende maskiner.

Manglende vitenskapelig kompetanse

«The current idea that chatbots are «AI» and claims that computers can now truly think is a reflection of the imbalance between rapid technological progress and the widespread lack of scientific literacy. In the past, people fervently believed in demons and UFOs. Today, it’s AI»
– Per A. Godejord (Kommentar på BlueSky)

Utsagnet mitt over bygger på en observasjon Carl Sagan gjorde på slutten av 1990-tallet; at det var et kritisk behov for utbredt vitenskapelig kompetanse i en verden som i stadig større grad formes av vitenskap og teknologi. I dag er denne teknologiske påvirkningen, i det minste i den velstående delen av verden, enda mer fremtredende.

Sagan advarte om at et samfunn som er sterkt avhengig av teknologi, men mangler forståelse for den, er iboende ustabilt og utsatt for manipulasjon. Han mente at manglende vitenskapelig forståelse gjør folk sårbare for pseudovitenskap og feilinformasjon, noe som hemmer evnen til å ta informerte beslutninger.

Etter min mening er denne bekymringen like relevant i dag, om ikke mer. Dette ser vi særlig i det stadig pågående mediehysteriet rundt fremveksten av samtaleroboter av typen ChatGPT og disses videreutviklede versjoner.

Det virker for meg som behovet for det Carl Sagan kalte et «baloney detection kit» er enda større nå enn det var på 90-tallet. Og da særlig knyttet til de ulike påstandene om at ChatGPT og lignende verktøy kan svare ekspertmessig på alle typer universitetsoppgaver, på mystisk vis avsløre «KI-tekster» og at samtalerobotenes utvikling betyr at vi nå har intelligente datamaskiner.

Denne type påstander er ikke bare vitenskapelig uholdbare, de kan være farlig.

Etter min faglige vurdering er det uansvarlig når informatikere eller informasjonsvitere omtaler samtaleroboter som “kunstig intelligens”. Slike uttalelser bidrar til å erstatte science facts med science fiction, og kan over tid svekke tilliten til akademia.

Mytene om KI er en samfunnsrisiko

«Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them»
– Frank Herbert, Dune (7)

«The talk about existential risk from AGI is a magician’s distraction from what’s going on right in front of us – not a mechanical uprising, but a silent campaign to devalue the political and cultural currency of humane thought.»
– Professor Shannon Vallor (8)

«The ramifications of the collapse of generative AI are much, much worse. On top of the fact that the largest tech companies have burned hundreds of billions of dollars to propagate software that doesn’t really do anything that resembles what we think artificial intelligence looks like, we’re now seeing that every major tech company (and an alarming amount of non-tech companies!) is willing to follow whatever it is that the market agrees is popular, even if the idea itself is flawed.»
– Edward Zitron (9)

«In truth, the trajectory of AI development is far more mundane. Progress is slowing, not accelerating, and the greater risk may lie in regulating AI as if science fiction were science fact.»
– Brian Chau (10)

«The people selling AI systems and the hype around them would like us to voluntarily give up our agency in these matters. They tell us that AI, or even AGI, is inevitable, or at least that systems like ChatGPT are “here to stay.” But none of this is inevitable.»
– Emily Bender and Alex Hanna (11)

Det mest alvorlige i de siste årenes mediefantasier knyttet til samtaleroboter er ikke teknologien i seg selv, men hvordan vi forstår og bruker den. Når både media, politikere og utdanningsinstitusjoner ukritisk videreformidler ideen om at samtaleroboter er intelligente og at vi som del av dette nå plutselig har utviklet intelligente maskiner, bidrar vi til en teknologisk analfabetisme som kan få alvorlige konsekvenser.

Så og si samtlige mennesker i dette landet er storkonsumenter av digitale medier. Men det er ikke gitt at dette utstrakte konsumet gir seg utslag i særlig stor forståelse, verken blant eldre eller unge, for hva digital teknologi i bunn og grunn rent faktisk er.

Og i en tid preget av omfattende digital sårbarhet, økende hybrid krigføring og informasjonskrig, er det avgjørende at befolkningen har en realistisk og kunnskapsbasert forståelse av hvordan informasjonsteknologi faktisk fungerer. En slik forståelse vil være det sikreste botemiddel mot digitale trusler fra både kriminelle og fiendtlige nasjoners etterretning.

Særlige våre ikke-teknologiutdannede politikere trenger å forstå at KI ikke er ett verktøy, men et kontroversielt sekkebegrep som omfatter en hel rekke ulike IT-systemer.

Samtalerobotene som media og våre politikere er så begeistret for, er utelukkende utviklet for å skrive gode setninger, og har absolutt ingen anelse om vår eksistens. En datamaskin kan verken føle eller tenke, og resultatet av våre spørsmål er verken intelligens eller resonnering, og slett ikke forståelse. Det ChatGPT og lignende verktøy leverer, er lynhurtig autofullføring av tekst. Og disse verktøyene er, på samme måte som sosiale medier, konstruert for å være avhengighetsskapende.

Ingen av de ulike systemene/ verktøyene som er utviklet som del av forskningsfeltet KI, vil i seg selv nødvendigvis være nyttig i alle deler av det offentlige og det private, med mindre en klar strategi for IT-bruk i den enkelte virksomhet er på plass. Og bare fordi media og deler av næringslivet, med våre politikere som lydige etterplaprere, nå kaller ethvert IT-system for «KI», betyr ikke at vi per nå rent faktisk har utviklet digitale system som er i nærheten av intelligens.

I dagens kompliserte verden trenger vi ikke flere myter om såkalt «KI», ei heller forbud mot – eller restriksjoner på – bruken av samtaleroboter og andre typer assistent-verktøy. Vi trenger digital dannelse, teknologikritikk og et utdanningssystem som setter individet, menneskelig innsikt og refleksjon i sentrum og ikke maskinens evne til å etterligne slike egenskaper.

Vi trenger å utdanne og bevisstgjøre folk slik at de slutter å overlate egen dømmekraft til datamaskiner eller hengir seg til fantasier om at statistiske «regnemaskiner» er velegnet som psykologer. En utstrakt bruk av lettvinte løsninger a la ChatGPT gjør oss dummere, og dermed til et lettere bytte for fiendtlige aktører.

Kanskje er det derfor på høy tid å hente frem, og tenke litt over, Carl Sagan sine ord fra boken «The Demon-Haunted World: Science as a Candle in the Dark»:

«We have designed our civilization based on science and technology and at the same time arranged things so that almost no one understands anything at all about science and technology. This is a clear prescription for disaster.»

Leseliste

  1. The Fever Dream of Imminent Superintelligence Is Finally Breaking
  2. There’s no such thing as Artificial Intelligence
  3. The AI expert who says artificial general intelligence is nonsense
  4. Artificially voiced intelligences: voice and the myth of AI
  5. Artificial Intelligence: A Clarification of Misconceptions, Myths and Desired Status
  6. A Comprehensive Review of AI Myths and Misconceptions
  7. Decoding AI Misconceptions and Their Impact on Creativity, Culture, and Equity
  8. Navigating the AI/ML Hype: Applying Carl Sagan’s Baloney Detection Principles
  9. ChatGPT and other language AIs are nothing without humans – a sociologist explains how countless hidden people make the magic
  10. ChatGPT is not “true AI.” A computer scientist explains why
  11. Can computers think? No, they cant actually do anything
  12. Why Our Machines Will Never Be as Smart as We Are
  13. Why a computer will never be truly conscious
  14. The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do
  15. Will computers overtake humans in intellectual ability?
  16. The Dark Addiction Patterns of Current AI Chatbot Interfaces
  17. Psychiatric Researchers Warn of Grim Psychological Risks for AI Users
  18. As AI becomes more popular, concerns grow over its effect on mental health
  19. Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models
  20. Is Your Privacy at Risk? Understanding the Threat of GenAI Chatbots
  21. Expectations of artificial intelligence and the performativity of ethics: Implications for communication governance
  22. Perceptions and Acceptance of Artificial Intelligence: A Multi-Dimensional Study
  23. Beyond Chatbot-K: On Large Language Models, “Generative AI,” and Rise of Chatbots—An Introduction
  24. The Silicon Illusion: Why AI Cannot Substitute for Scientific Understanding
  25. AI Without The Hype: What’s Really Going On With Generative AI
  26. I got fooled by AI-for-science hype—here’s what it taught me

Samtaleroboter i akademia – KI-verktøy eller kun statistiske tekstgeneratorer?

Dette innlegget er basert på arbeidet jeg har gjort knyttet til samtaleroboters evne til å besvare arbeidskrav (eksamensoppgaver) i mine fagemner. En omarbeidet versjon er tidligere publisert på forskersonen.no

In a world in transition, students and teachers both need to teach themselves one essential skill – learning how to learn.

Carl Sagan

Samtaleroboter som ChatGPT fremstår som språklig imponerende, men avsløres som faglig svake når de møter akademiske krav. De genererer overfladiske svar og falske kilder, og mangler evne til kritisk tenkning og forståelse. I høyere utdanning bør de omtales som digitale verktøy – ikke intelligente hjelpere.

Innledning

«Neural networks today are realized in software, rather than in electrical circuits, and to be clear, neural net researchers don’t try to actually model the brain, but the software structures they use — very large networks of very simple computational devices — were inspired by the neural structures we see in brains and nervous systems»
– Professor Michael Wooldridge (1)

«Differences about the future of AI are often partly rooted in differing interpretations of evidence about the present. For example, we strongly disagree with the characterization of generative AI adoption as rapid»
– Professor Arvind Narayanan and Senior Fellow Sayash Kapoor (2)

«Min hypotese er at de som tar avgjørelsen om hvorvidt man vil kalle noe for kunstig intelligens eller ikke, ofte ser på begrepsbruken som en fordel. Man framstår kanskje som mer moderne og fremtidsrettet. Eller man får flere klikk på artikkelen man skriver»
– Nora Gjøen-Gjøsæter (3)

«Jeg liker ikke å kalle det «kunstig intelligens»
– Roger Olafsen (4)

«Så hva er kunstig intelligens? Først og fremst er det et gammelt fagfelt med et misvisende navn. Som helhet har fagfeltet vært en skuffelse, fordi ordet «intelligens» antyder et løfte disse løsningene aldri har vært i nærheten av å innfri. Samtidig er ideer derfra blitt brukt til å lage IT-løsninger i flere tiår.»
– Bjørn Stærk (5)

Siden lanseringen av ChatGPT i november 2022 har debatten om kunstig intelligens (KI) i utdanning og samfunn eksplodert. Samtaleroboter som ChatGPT ol. har blitt løftet frem som teknologiske mirakler – verktøy som angivelig kan revolusjonere utdanning, forskning og arbeidsliv. Mediene har vært fulle av både dommedagsprofetier og euforiske visjoner. Men bak overskriftene og den teknologiske euforien skjuler det seg en virkelighet som er langt mer nyansert, og langt mindre intelligent.

Men hva skjer når vi faktisk setter de ulike verktøyene på prøve, i møte med reelle akademiske krav og praksisnære oppgaver? Dette innlegget bygger på egne systematiske tester av ChatGPT og 13 andre lignende samtaleroboter, gjennomført over to år, og jeg vil hevde at disse verktøyene ikke representerer et paradigmeskifte i høyere utdanning, men kun en ny variant av gamle verktøy med bedre markedsføring.

Språklig briljans – faglig svakhet

«While general-purpose LLMs are great starting points, they typically lack deep domain expertise to help within specific areas. In many ways, this is similar to the case with human expertise: A person cannot become an expert in a particular field unless they have formal education, training, and in-depth experience.»
– Tony Beltramelli (6)

ChatGPT og de ulike samtalerobotene imponerer ved første øyekast. Det skriver flytende, høflig og grammatisk korrekt. Men når systemene blir bedt om å besvare arbeidskrav utformet i tråd med høyere nivå i Blooms taksonomi fra fagemner knyttet til samfunnsinformatikk-feltet, der det ikke finnes klare svar eller evige sannheter, faller de gjennom. De klarer ikke å analysere, vurdere eller reflektere, kjernekompetanser i høyere utdanning. I stedet produserer de overfladiske svar som ofte bare reformulerer oppgaveteksten. Det som fremstår som innsikt, er i realiteten statistisk sannsynlige ordkombinasjoner.

Hallusinasjoner og falske kilder

Et gjennomgående problem er såkalte «hallusinasjoner», disse verktøyenes tendens til å dikte opp fakta, forfattere og litteratur. I flere av mine tester genererte de ulike samtalerobotene akademiske referanser som ikke eksisterer, men som så troverdige ut. Dette er ikke bare en teknisk svakhet, men en alvorlig utfordring for akademisk integritet. Når studenter bruker slike verktøy ukritisk, risikerer de å levere besvarelser som er både faglig svake, faktisk feil og helt uten den tankevirksomhet det er meningen at universitetsstudier skal oppøve.

En dårlig støtte for svake studenter

Basert på resultatene av mine tester vil bruk av samtaleroboter i fagemner der det finnes få eller ingen klare fasitsvar, i liten grad hjelpe faglig svake studenter. Tvert imot vil de antakelig forsterke svakhetene. Studenter uten grunnleggende fagforståelse klarer ikke å stille gode spørsmål (prompting), og ender opp med generiske svar uten dybde. Samtidig kan faglig sterke studenter bruke verktøyene som en slags «digital sekretær» til å strukturere tekst, oppsummere kilder eller generere utkast. Men dette krever høy grad av kritisk vurdering og etterarbeid, og studenten slipper ikke unna å selv måtte formulere sine faglige refleksjoner forankret i egen yrkespraksis og i relevant faglitteratur.

Og besvarelsene fra de faglige svake studentene, den gruppen som med størst sannsynlighet lar seg friste til å ta snarveier, er slett ikke vanskelig å oppdage, noe også andre forskere har pekt på (Molnes, 2024)

Ikke kunstig intelligens – bare avansert statistikk

«The bots ingest staggering amounts of text and conversations to detect patterns. Their programming predicts how to respond naturally by matching and remixing these learned patterns. But ultimately, it takes human guidance to steer these statistical models in an thoughtful direction.»
– Andy Tillo (7)

Til tross for at media og andre stadig henviser til ChatGPT og lignende samtaleroboter som kunstig intelligens (KI) er disse verktøyene absolutt ikke intelligente. De forstår ikke spørsmål, resonnerer ikke, og har ingen bevissthet. De er basert på avanserte språkmodeller som gjetter neste ord basert på sannsynlighet.

Stipendiat David Samuel ved Universitetet i Oslo sin språkteknologigruppe var ganske klar i et intervju i Universitas i 2022 på at ChatGPT ikke på noen måte var intelligent (Gundersen, 2022) og Ian Venner ved Hurricane peker på at de store språkmodellene først og fremst har indeksert internett. Ved å behandle alle dataene de har tilgang til der, samt de data som ulike aktører har lagt inn i systemene, har de skapt koblinger mellom datasett basert på faste regelsett. Dette betyr at lignende informasjon grupperes sammen, vektes og kobles til andre lignende områder, noe som gir et stort nettverk av sammenkoblet data. Dette, hevder Venner, er ikke kunstig intelligens, men datamining (Venner, 2024). Og sist, men ikke minst, KI er ikke en teknologi eller ett verktøy, men et upresist «sekkebegrep» som omfatter en rekke ulike systemer/ verktøy basert på ulike teknologier hvis intelligens er ytterst diskutabel. Professor Jan Ketil Arnulf ved BI foreslår at vi bør droppe begrepet «Kunstig intelligens» og heller bruke begrepet «kunstige aktører» (Arnulf, 2024), noe jeg for min del er enig i.

Å ukritisk kalle de ulike samtalerobotene for KI er misvisende og det tilslører det faktum at disse verktøyene verken er spesielt revolusjonerende, eller spesielt nye og utelukkende er programmert for å skrive gode setninger basert på statistisk analyse av de bokstavsammensetninger en bruker legger inn.

Hva betyr dette for høyere utdanning?

Det er etter min mening ingen grunn til panikk. Samtaleroboter truer ikke utdanningen ved våre høyskoler og universiteter så lenge vi utformer eksamensoppgaver og arbeidskrav i tråd med høyere nivå i Blooms taksonomi. Oppgaver som krever refleksjon og kritisk tenkning, faglig forankring og personlig erfaring, lar seg ikke løse av samtaleroboter. Tvert imot gir dette oss en gyllen mulighet til å styrke undervisningskvaliteten ved å fokusere på oppgavedesign, veiledning og vurderingsformer som fremmer dyp læring.

Avslutning – Fra hype til realisme

«There tend to be three AI camps. 1) AI is the greatest thing since sliced bread and will transform the world. 2) AI is the spawn of the Devil and will destroy civilization as we know it. And 3) «Write an A-Level paper on the themes in Shakespeare’s Romeo and Juliet.»
I propose a fourth: AI is now as good as it’s going to get, and that’s neither as good nor as bad as its fans and haters think, and you’re still not going to get an A on your report. You see, now that people have been using AI for everything and anything, they’re beginning to realize that its results, while fast and sometimes useful, tend to be mediocre.»
– Steven J. Vaughan-Nichols (8)

Samtaleroboter er nyttige verktøy innenfor begrensede områder, men ikke mer enn det. De kan brukes til oversettelser, oppsummeringer og idéutkast. Men de kan ikke tenke, forstå eller lære. Det er derfor på tide å legge bort både frykten og euforien, og møte teknologien med nøkternhet og faglig dømmekraft.

For i en tid der det rene tøv kan genereres på kommando, blir evnen til kritisk tenkning viktigere enn noen gang.

Kilder

  1. Arnulf, J. K. (2024). Bør vi snakke om kunstige «aktører» i stedet for «intelligens»? BI Business Review. Hentet fra https://www.bi.no/forskning/business-review/articles/2024/09/bor-vi-snakke-om-kunstige-aktorer-i-stedet-for-intelligens/
  2. Gundersen, G. M. (2022). Forsker avmystifiserer «ChatGPT»: – Den er ikke intelligent på noen måte. Universitas. Hentet fra https://www.universitas.no/ai-chatgpt-david-samuel/den-er-ikke-intelligent-pa-noen-mate/366594
  3. Molnes, G. (2024). Professor: – De flinke studentene blir bedre med KI. Utdanningsnytt. Hentet fra https://www.utdanningsnytt.no/ai-juks-kunstig-intelligens/professor-de-flinke-studentene-blir-bedre-med-ki/390405
  4. Sagan, C. (1996). The demon-haunted world: Science as a candle in the dark. The Random House Publishing Group.
  5. Venner, I. (2024). How AI has been hijacked, the AGI fallacy and leveraging Vertical AI. Hurricane Commerce. Hentet fra https://hurricanecommerce.com/how-ai-has-been-hijacked-the-agi-fallacy-and-leveraging-vertical-ai/

Leseliste

Spesifikt
  1. Bharatha, A., et al. (2024). Comparing the performance of ChatGPT-4 and medical students on MCQs at varied levels of Bloom’s Taxonomy. Advances in Medical Education and Practice. Retrieved from https://www.tandfonline.com/doi/pdf/10.2147/AMEP.S457408
  2. Crowther GJ, Sankar U, Knight LS, Myers DL, Patton KT, Jenkins LD, Knight TA. (2023). Chatbot responses suggest that hypothetical biology questions are harder than realistic ones. J Microbiol Biol Educ. 24:e00153-23. Retrieved from:
    https://journals.asm.org/doi/full/10.1128/jmbe.00153-23
  3. Elsayed, S. (2023). Towards mitigating ChatGPT’s negative impact on education: Optimizing question design through Bloom’s taxonomy. arXiv. Retrieved from https://arxiv.org/pdf/2304.08176
  4. Govender, R. G. (2024). My AI students: Evaluating the proficiency of three AI chatbots in completeness and accuracy. Contemporary Educational Technology. Retrieved from https://www.cedtech.net/article/my-ai-students-evaluating-the-proficiency-of-three-ai-chatbots-in-completeness-and-accuracy-14564
  5. Habiballa, H., et al. (2025). Artificial intelligence (ChatGPT) and Bloom’s Taxonomy in theoretical computer science education. Applied Sciences, 15(2). Retrieved from https://www.mdpi.com/2076-3417/15/2/581
  6. Herrmann-Werner, A., et al. (2024). Assessing ChatGPT’s mastery of Bloom’s Taxonomy using psychosomatic medicine exam questions: Mixed-methods study. Journal of Medical Internet Research. Retrieved from https://www.jmir.org/2024/1/e52113/
  7. Leary, A., et al. (2023/2024). Strategies for effective teaching in the age of AI. University of Notre Dame Resource Library. Retrieved from https://learning.nd.edu/resource-library/strategies-for-effective-teaching-in-the-age-of-ai/
  8. Lodge, J. M. (2023). ChatGPT consistently fails (most parts of) the assessment tasks I assign my students. Here’s why. LinkedIn Pulse. Retrieved from https://www.linkedin.com/pulse/chatgpt-consistently-fails-most-parts-assessment-tasks-jason-m-lodge
  9. Mirzadeh, I., et al. (2024). GSM-Symbolic: Understanding the limitations of mathematical reasoning in large language models. Hugging Face Papers. Retrieved from https://huggingface.co/papers/2410.05229
  10. Mitchell, M. (2023). Can large language models reason? AI Guide. Retrieved from https://aiguide.substack.com/p/can-large-language-models-reason
  11. Newton, P., & Xiromeriti, M. (2024). ChatGPT performance on multiple choice question examinations in higher education: A pragmatic scoping review. Assessment & Evaluation in Higher Education, 49(6), 781–798. https://doi.org/10.1080/02602938.2023.2299059
  12. Spencer, J. (2023). The FACTS cycle for prompt engineering. Spencer Education. Retrieved from https://spencereducation.com/facts-cycle/
  13. Susnjak, T. (2022). ChatGPT: The end of online exam integrity? ResearchGate. Retrieved from https://www.researchgate.net/publication/366423865_ChatGPT_The_End_of_Online_Exam_Integrity
  14. Volante, L., DeLuca, C., & Klinger, D. A. (2023). ChatGPT challenge: 5 ways to change how students are graded. Queen’s Gazette. Retrieved from https://www.queensu.ca/gazette/stories/chatgpt-challenge-5-ways-change-how-students-are-graded
Generelt
  1. ChatGPT’s Study Mode Is Here. It Won’t Fix Education’s AI Problems
  2. What ChatGPT Study Mode gets right and wrong
  3. Could AI slow science?
  4. Why Understanding AI Doesn’t Necessarily Lead People to Embrace It
  5. AI and Threats to Academic Integrity: What to Do
  6. Is AI Really a Threat to Higher Education?
  7. There’s no simple solution to universities’ AI worries
  8. Instead of punishing students for using AI, colleges and universities must provide clear, consistent guidelines and rules
  9. Why AI isn’t the threat we think it is

ChatGPT – et taleført eksempel på kunstig intelligens, eller…?

En bloggbok av Per Arne Godejord

Nok et KI-bilde
Noen etiskejuridiskesikkerhetsmessige, helsemessige og kognitive problemstillinger knyttet til samtaleroboter, og hvorfor disse verktøyene ikke er eksempler på KI

Videre til boken

Neste side ikon

Digital egenberedskap: Vår nye folkeplikt

I en tid der krig ikke bare utkjempes med våpen, men også med tastatur og algoritmer, må vi alle forstå at vi er deltakere i en pågående informasjonskrig. Motstanderne er både kriminelle og statlige aktører fra Russland og Kina, og frontlinjen går tvers gjennom våre skjermer.

Vi lever i en tid der digitale trusler ikke lenger er noe som bare angår myndigheter og eksperter. De angår deg og meg – i hverdagen, på jobb, og hjemme ved kjøkkenbordet. Når strømmen går, nettet faller ut, vår arbeidsgivers IT-systemer angripes via vår private SMART-mobil eller falske nyheter sprer seg raskere enn fakta, er det vår egen digitale robusthet som avgjør hvor godt vi står imot.

Kjøkkenbordet som første forsvarslinje

Digital sikkerhet starter ikke i regjeringskvartalet – den starter hjemme. Det handler om å bruke sikre passord, aktivere totrinnsverifisering, og samtale om nettvett hjemme. Det handler om å forstå hvordan vi selv kan være mål for sosial manipulering – og hvordan vi kan stå imot.

De vanlige mistenkte – og nye verktøy

Selv om kunstig intelligens skaper nye utfordringer, er det fortsatt de «vanlige mistenkte» som står bak de fleste digitale trusler: statlige etterretningstjenester og organiserte kriminelle. KI er et samlebegrep for en rekke ulike verktøy – men det er menneskene bak tastaturet som utgjør den virkelige faren. Dette er profesjonelle kriminelle eller etterretningsoperatører med et godt grep om psykologi og god kjennskap til vår hang til intellektuell latskap når det gjelder alt som har med IT å gjøre.

Sosiale medier som slagmark

Plattformer som Facebook, TikTok og X (tidligere Twitter) er ikke lenger bare tidtrøyte. De er blitt arenaer for psykologisk krigføring. Her formes holdninger, skapes splid og manipuleres virkelighetsoppfatninger. Når vi deler, liker og kommenterer, er vi ikke bare brukere – vi er aktører i et informasjonsmiljø som kan brukes både til opplysning og til destabilisering. Og når vi overlater våre barn og unge til på egenhånd å utforske den digitale verden, så overlater vi dem alene og forsvarsløs til kyniske kommersielle interesser, kriminelle og operatører fra de brutale diktaturstatene Russland og Kina.

Kan en kriminell eller en etterretningsoperatør ikke umiddelbart nå fatt i våre data via våre digitale medieenheter, er våre barns enheter naturlige mål. Og våre barn og unge er også mål for innhold som svekker deres selvforståelse og mentale hygiene, noe som på lang sikt kan gi en befolkning som i liten grad er motstandsdyktige i krise og krig.

Hva betyr dette for deg?

Det betyr at digital egenberedskap ikke lenger er et valg – det er en nødvendighet. Vi må:

  • Oppdatere programvare og bruke sikre passord
  • Lære barna våre kritisk tenkning og digital dømmekraft
  • Slutt å kalle ChatGPT og lignende verktøy for KI, og sett deg inn i de sikkerhets-, personvernmessige og kognitive utfordringer som følger med disse verktøyene
  • Være bevisste på hva vi deler, og hvem vi stoler på
  • Forstå at vi er mål – og at vi har makt til å stå imot

Dette er ikke paranoia. Det er realisme. Og det er vår nye folkeplikt.

En forkortet utgave av dette blogginnlegget kan også leses på Trønderdebatt.

Om ORG5005 – Digital beredskap

... den geniale måten din med å legge opp meget innholdsrik asynkron undervisning på. Fremstår på mange måter som det mest interessante undervisningsopplegget jeg har vært borti, med en ufattelig bred inngang og dekning til alt fra fagstoff, veiledninger og henvisninger, som utsetter studentene for den mest relevante utfordringen i dag: sortering, siling og bruk av riktig, adekvat og troverdig informasjon i et absurd mylder av kilder, stoff og henvisninger. 

- Student ORG5005, 2025

ORG5005 startet opp første gang våren 2020.

Emnets fokus er egen bevisstgjøring rundt digitale trusler og den enkeltes ansvar for digital beredskap. Denne begrensningen ble valgt for å kunne gjøre et i utgangspunktet enormt fagemne til noe som er gripbart for den enkelte student.

Fagemnet kan derfor sies å omhandle det som kalles Social cybersecurity.

Studentene er i svært liten grad IT-teknisk personell eller ingeniører og emnet berører følgelig ikke de tekniske sidene ved digital sikkerhet. Det store flertallet jobber heller ikke med IKT-sikkerhetsspørsmål eller cyberforsvar til daglig, og det er vanskelig å drifte et fagemne som både tilfredsstiller flertallets behov og behovene til en eller to personers spesialkunnskap.

Fagemnet har følgelig ikke som mål å gjøre studentene i stand til å bekjempe hackere – enten de er kriminelle eller statlige aktører, men skal trigge refleksjoner som til slutt kan være med å gjøre den enkelte student til en bedre beredskapsleder, og ikke minst en mer sikkerhetsbevisst borger i et nesten heldigitalt samfunn. Håpet er at den enkelte student etter å ha gjennomført ORG5005 skal forstå at egne holdninger og egen digital beredskap har betydning for den totale beredskapen, – både hos egen arbeidsgiver og for nasjonens digitale beredskap. Studentene skal også være i stand til å drive bevisstgjøringsarbeid i egen organisasjon, herunder bidra til beredskapsøvelser der bortfall av digital infrastruktur inngår.
 
Universitetsstudier har alltid hatt som funksjon å utdanne selvstendige kandidater med god vurderingsevne og god evne til kritisk tenkning, og dette er også funksjonen til ORG5005.

ORG5005 er på 7.5 studiepoeng og et fagemne på 7,5 stp. tilhørende EVU-segmentet der studentene studerer på deltid er beregnet til om lag 200 arbeidstimer. Studiepoengberegningen kan relateres til råd om arbeidsbelastning pr. studiepoeng gitt i den internasjonale ECTS-skalaen og nasjonale (UHR) retningslinjene som sier at 1 studiepoeng svarer til en normal arbeidsbyrde på mellom 25 og 30 arbeidstimer.

Siden det gis individuell veiledning på hver besvarelse til de to arbeidskravene og studentene skal kunne jobbe videre med disse to besvarelsene frem mot mappestenging (eksamen består kun av å levere inn ferdigutviklede besvarelser på to arbeidskrav) i slutten av semesteret, blir arbeidsmengden erfaringsmessig overkommelig. Men det krever at studentene har en stor grad av selvdisiplin og er god på å organisere egen tidsbruk.

For å hjelpe studentene med planleggingen av egen studietid med dette emnet, er all informasjon og fagstoff på plass i Canvasrommet til fagemnet senest i midten av desember. Dermed vil studentene ved semesterstart januar kunne ha kontroll på all nødvendig informasjon og samtidig være trygg på at det ikke kommer plutselige kontrabeskjeder eller ikke-varslede oppgaver.

Siden ORG5005 er et asynkront fagemne som er ment å nå det store flertallet som ikke har anledning til å delta på samlinger, ei heller digitale, er det ingen digitale forelesninger i sanntid.

Les mer om utviklingen av ORG5005 på ORG5005 – Fra synkront samlingsbasert til asynkront nettbasert

1) ORG5005 er designet som et asynkront, heldigitalt emne, og har ingen samlinger på campus eller synkrone samlinger via Zoom eller Teams.

2)
Undervisningsmedie: Canvas med tekst, lyd og video.

3) Arbeidsmåte
: Studentaktiv læring med asynkrone forelesninger, og to obligatoriske arbeidskrav som skal utføres individuelt og leveres inn til individuell veiledning. (Frivillig og ikke knyttet til eksamensretten). Deretter videreutvikles besvarelsene iht. veiledning og leveres i sine endelige versjoner i Inspera innen oppsatt eksamensdato.

4) Ingen trenger å ta seg fri fra jobb for å gjennomføre ORG5005 og dere jobber i deres eget tempo og når dere selv vil innenfor de frister som er satt for innlevering av besvarelser til veiledning. Selv de som skal ut i INTOPS har mulighet til å fullføre ORG5005. Får dere ikke tid til å levere til veiledning innen oppsatt frist, søker dere om utsettelse via e-post direkte til faglærer. De som ser at arbeidsdag, studiedag og hverdag ikke gir rom for innlevering til veiledning, bruker de generelle veiledningsdokumentene og «Retningslinjer for mappevurdering» som grunnlag for endelige besvarelser på de to arbeidskravene.

5) Det blir ingen synkrone samlinger i Zoom eller Teams.
Alt, inklusive fagansvarliges velkomsthilsen og muntlige gjennomgang av organiseringen av ORG5005 er heldigitalt og asynkront.

6)
Eksamensform: Mappeevaluering med karakter (A – F)

se også

  1. ORG5005 på 1 2 3
  2. FAQ for ORG5005
  3. Velkommen til ORG5005 (Video)
  4. Retningslinjer for mappevurdering (ORG5005)
  5. Fagansvarliges ulike arbeider knyttet til informasjonssikkerhet og digital beredskap

ORG5005 på 1 2 3



ORG5005 har ingen forelesninger i sanntid.

Alt fagstoff, videoforelesninger ol. ligger klare i Canvasrommet ved semesterstart.

Det som står i Fremdriftsplan for ORG5005 VÅR xx endres ikke og datoene kan legges inn i din egen kalender med en gang.


Du får utdelt eksamensoppgavene i form av 2 – to – obligatoriske arbeidskrav i løpet av januar og februar. (Se fremdriftsplanen i Canvasrommet).

Disse jobber du med ut fra fagstoffet som ligger i Canvasrommet og fagstoff du selv finner frem til, de generelle veiledningsdokumentene og eksempler på utkast til besvarelser.

Du leverer dine utkast til besvarelser inn til individuell veiledning, og deretter jobber du videre med de to besvarelsene frem til endelig innlevering (eksamen). Du kan søke om utsettelse på innlevering til veiledning ved en enkel e-post til faglærer.



Eksamen kalles «mappestenging», og du skal levere dine endelige besvarelser på de to arbeidskravene i Inspera.

Info om eksamen finner du i infoboksen Mappestenging ORG5005 – Eksamensinformasjon i Canvasrommet.
Se også:
  1. FAQ for ORG5005
  2. Kort om ORG5005 – Digital beredskap
  3. Lengre om ORG5005 – Utviklingen fra 2020

FAQ for ORG5005

Innledning

Du befinner deg nå i et helt nytt og kanskje fremmedartet miljø. Det er lenker og knapper og faner overalt, og faglærer virker å være lysår unna. Kan dette gå bra? Jo da, sett deg godt til rette i godstolen, ta en kopp kaffe (eller te) og senk skuldrene. Vår store filosof Arne Næss Sr. sa en gang at «Det gjør vondt å tenke» og at dette var «en smerte vi ikke bør unndra oss»(1) 

Dersom vi godtar dette utsagnet, vil det også gjøre vondt å ta høyere utdanning. Men hele poenget med høyere utdanning er vel å presse seg selv ut av komfortsonen, ikke sant? Det er da man lærer 😊 Men selv om det er krevende med rene asynkrone nettbaserte studier så er det ikke så vanskelig som det ser ut. 

Dette kommer til å gå bra!

(1) Rothenberg, David: Arne Næss – Gjør det vondt å tenke, Cappelen Damm, 1992

Innhold

  1. Generelt om ORG5005
  2. Innlevering til veiledning av de obligatoriske arbeidskravene
  3. Eksamen
  4. Særskilt om KI og eksamen