I det følgende vil Microsoft Copilot oppsummere sitatene fra forskere og teknologer gjengitt i kapittel 5. Teksten er kopiert direkte fra Copilot og limt inn her «as is».
Kap. 5 Rasende utvikling – fra dum til dummere?

Her er en oppsummering av de sentrale synene som uttrykkes på tvers av sitatene, med særlig fokus på hvordan de forholder seg til feltet KI, samtaleroboter og store språkmodeller (LLM):
- Manglende evne til avansert resonnement: Flere av sitatene peker på at dagens systemer sliter med oppgaver som krever høyere ordens tenkning. Som Manojit Bhattacharya og kollegaer (2024) bemerker, klarer verktøyene ikke å gi riktige svar når de konfronteres med spørsmål som krever avansert resonnement. Dette understreker at selv om systemene kan levere overbevisende tekst på overflaten, mangler de den underliggende evnen til å engasjere seg i dyptgående analyse og refleksjon.
- Overfladisk “intelligens” og ren mønstergjenkjenning: Sitatene fra Sølve Eidnes, Katrine Seel og Signe Riemer-Sørensen (2023) samt Lance Cleveland (2024) fremhever at de imponerende resultatene ofte er et resultat av ren statistisk mønstergjenkjenning. Modellenes evne til å generere tekst eller bilder, som kan virke imponerende ved første øyekast, er i hovedsak basert på å gjenta variasjoner av informasjon de allerede har hentet – uten en dypere forståelse av innholdet. Dette blir ofte beskrevet med begrepet «stokastiske papegøyer», et bilde på hvordan modellene i realiteten ikke «forstår» men bare repeterer hva de har lært fra treningsdata.
- Kritikk av manglende kildehenvisning og originality: Lance Cleveland (2024) legger merke til at ChatGPT 4, ved å trekke ut populært tilgjengelig informasjon på samme måte som en søkemotor (f.eks. Google), ikke tilføyer noe nytt eller originalt. I stedet fremstår den som en mekanisme som «pretender» å skape svar på egen hånd, uten å kreditere kildene. Dette reiser spørsmål om både integriteten og påliteligheten til informasjonen disse verktøyene leverer.
- Problematiske aspekter ved “hallusinasjoner” og nøyaktighet: Alex Cranz (2024) er kritisk til ideen om at en form for udefinerbar «magisk saus» kan kompensere for faktafeil og upresishet i dagens AI-systemer. Han peker på at til tross for finessene i de genererte svarene, er verken intensjonen eller evnen til å levere nøyaktig og underbygd informasjon tilstrekkelig for kritiske bruksområder – som for eksempel i juridisk kontekst eller andre felt der feilaktig informasjon kan få alvorlige konsekvenser. Dette understreker et behov for å ikke la hype overskygge de faktiske begrensningene.
- Avvisning av overdrivelser om systemernes kompetanse: Professor Melanie Mitchell (2023) summerer kritikken med et enkelt avvisende utsagn: påstander om at ChatGPT har bestått avanserte tester eller eksamener, som for eksempel en MBA-eksamen, blir klart avvist. Dette synet understreker at til tross for mediedekning og optimistiske fremstillinger, er systemene langt fra å ha oppnådd en form for robust, menneskelignende forståelse eller intelligens.
Overordnet budskap: Disse sitatene formidler et felles budskap om at dagens KI, samtaleroboter og LLM-er i hovedsak er avanserte verktøy for mønstergjenkjenning og automatisert tekstgenerering – de oppnår ofte imponerende resultater på et overfladisk nivå, men mangler den dypere innsikten og evnen til komplekst resonnement som vi forbinder med ekte intelligens. Kritikken ligger i at hypen om en «magisk» eller selvstendig intelligent maskin føyer seg til en misforstått forestilling – noe som både kan føre til urealistiske forventninger og til at viktige feil og unøyaktigheter bagatelliseres. Disse perspektivene understreker behovet for en nyansert og kritisk tilnærming til hvordan vi definerer, bruker og utvikler KI-teknologi, særlig når den skal anvendes i kontekster med høye krav til nøyaktighet og pålitelighet.


Er du enig i Copilot her har foretatt en grei og presis oppsummering av det de ulike sitatene peker på?