I det følgende vil Microsoft Copilot oppsummere sitatene fra forskere og teknologer gjengitt i kapittel 4. Teksten er kopiert direkte fra Copilot og limt inn her «as is».
Kap. 4 En tjenende ånd eller en falsk lurendreier?

Disse sitatene uttrykker et felles kritisk syn på hvordan vi ofte misoppfatter hva KI, samtaleroboter og store språkmodeller (LLM) egentlig er og kan gjøre:
- Overvurdering av intelligens: Professor Gary Smith påpeker at vi gjerne tror datamaskiner er superintelligente vesener som vet alt og kan ta beslutninger for oss – sett i kontrast til at de egentlig bare er “mønsterfinnere”. Dette synet utstiller den overdrevne tilliten mange bruker til automatiserte systemer, til tross for at deres “intelligens” i realiteten er basert på statistiske mønstre og ikke på ekte forståelse.
- Avvisning av begrepet «kunstig intelligens»: Roger Olafsen uttrykker en motvilje mot å kalle det kunstig intelligens. Dette understreker at betegnelsen kan være misvisende, da den antyder at systemene har noen form for autonom og bevisst intelligens – noe som de i realiteten ikke har.
- Enkel mekanisme bak LLM: Jason Flaks forklarer at LLM-er, som ChatGPT, i utgangspunktet opererer ved å ta en gitt sekvens av ord og forutsi det mest sannsynlige neste ordet. Ved å gjenta denne prosessen (med en kontrollert dose tilfeldighet) oppstår en generativ modell. Synsvinkelen her er at de imponerende resultatene vi ser, ikke stammer fra en dyptgående forståelse, men fra ren statistikk.
- Begrensninger og avhengighet av menneskelig innsats: R.H. Lossin og J. Resnikoff fremhever at generative AI-systemer kan gi overfladisk imponerende resultater, men de representerer ikke et revolusjonerende brudd med fortidens teknologier. Slike systemer “lærer” ikke eller utvikler seg selvstendig – de krever kontinuerlig menneskelig innsats både for å trene dem og for å forbedre dem. Denne innsikten peker på at den mye omtalte “intelligensen” i disse modellene i realiteten er begrenset og avhengig av menneskelige bidrag.
Oppsummert: Disse perspektivene kaster lys over en viktig erkjennelse innen fagområdet: de systemene vi i dag omsetter for å være “kunstig intelligente” – enten det er samtaleroboter eller LLM-er – er i bunn og grunn verktøy for mønstergjenkjenning. De opererer utelukkende på statistisk sannsynlighet uten gyldig evne til å forstå eller resonnere på samme måte som mennesker. Bruken av begrepet “intelligens” kan dermed gi et feilaktig bilde, og det er essensielt å skille mellom de tekniske operasjonene disse verktøyene utfører og den mye bredere og mer komplekse formen for intelligens vi vanligvis forbinder med mennesker. Denne nyanserte tilnærmingen er avgjørende for å sette realistiske forventninger, for videre forskning og for en ansvarlig anvendelse av teknologien.


Er du enig i Copilot her har foretatt en grei og presis oppsummering av det de ulike sitatene peker på?