Microsoft Copilot oppsummerer sitatene – Kap. 6

I det følgende vil Microsoft Copilot oppsummere sitatene fra forskere og teknologer gjengitt i kapittel 6. Teksten er kopiert direkte fra Copilot og limt inn her «as is».

Kap. 6 Når oppgavene blir lange…

De sentrale sitatene uttrykker en tydelig skepsis til den populære forestillingen om at dagens KI, samtaleroboter og LLM-er (store språkmodeller) faktisk «tenker» eller forstår på en menneskelignende måte. Her er noen hovedpoeng som trekkes frem:

  1. Ingen ekte tenkning eller læring: Jason M. Lodge (2023) understreker at generative AI-systemer ikke engasjerer seg i tenkning slik mennesker gjør. De «lærer» ved å oppdatere modellene sine for å gjøre bedre gjetninger, men denne mekanismen er langt fra kalkulerende eller forståelsesbasert læring. Begrepet «kunstig intelligens» kan dermed være misvisende, siden det antyder egenskaper som de egentlig ikke har.
  2. Mønsterbasert respons i stedet for dyp forståelse: Professor Melanie Mitchell (2024) stiller spørsmål ved om modellene faktisk forstår og resonnerer generelt, eller om de i realiteten bare utfører det som kalles «approximate retrieval» – det vil si at de henter ut svar basert på statistiske mønstre fra treningsdataene sine. Denne prosessen innebærer ingen reell innsikt, men er simpelthen en sofistikert form for gjenfinning og gjentakelse.
  3. Risikoen ved overhyping og feiltolkning av begrepet intelligens: Noam Chomsky, Ian Roberts og Jeffrey Watumull (2023) belyste det paradoksale ved den nåværende AI-utviklingen: På den ene siden gir det optimisme fordi intelligens er nøkkelen til problemløsning, men på den andre siden reiser det bekymring. De kritiserer maskinlæring for å innlemme en fundamentalt feilaktig forståelse av språk og kunnskap. Mens den menneskelige hjernen er i stand til å skape forklaringer med en begrenset mengde informasjon, virker systemer som ChatGPT kun som en «lumbering statistical engine» – en maskin for mønstergjenkjenning uten evne til å generere meningsfull innsikt.
  4. ChatGPT som en avansert søkemotor: Anthony Munnelly (2023) oppsummerer at ChatGPT i bunn og grunn fungerer som en ekstremt avansert søkemotor. Den henter og setter sammen resultater basert på enorme mengder tilgjengelig tekst på internett, uten at den i vesentlig grad behandler informasjonen med en dypere, original forståelse.

Oppsummert: Disse sitatene fremhever et felles syn: dagens generative AI og LLM-er er avanserte verktøy for statistisk mønstergjenkjenning, uten evnen til ekte forståelse, resonnering eller læring slik mennesker gjør. De gir imponerende og til tider overfladiske resultater, men de mangler den dyptgående innsikten man forbinder med intelligens. Videre advares det mot å la begrepet «kunstig intelligens» tiltrekke seg mer hype enn substans – en misforståelse som kan føre til urealistiske forventninger og potensielt feilaktige anvendelser i kritiske sammenhenger.

Er du enig i Copilot her har foretatt en grei og presis oppsummering av det de ulike sitatene peker på?