Kap. 4 En tjenende ånd eller en falsk lurendreier?

«People think of computers as being these super intelligent beings. They are smarter than us, they know far more facts than us, and we should trust them to make decisions for us. But they’re just pattern finders
– Professor Gary Smith, 2023 (1)

«Jeg liker ikke å kalle det kunstig intelligens
– Roger Olafsen, fagleder Data Science AML, DNB,2022 (2)

«Large Language Models (LLMs) actually do something quite simple. They take a given sequence of words and predict the next likely word to follow. Do that recursively, and add in a little extra noise each time you make a prediction to ensure your results are non-deterministic, and voila! You have yourself a “generative AI” product like ChatGPT.»
– Jason Flaks, 2023 (3)

«Generative AI might produce superficially impressive results at first blush, but it is not revolutionary; it does not present a dramatic historical or technical break with the past. It does not “move” or “evolve” on its own. “Limited memory” AI (that is, AI that can store experiences acquired over time) may have superseded the chess-playing “reactive machines” of the 1990s (i.e., AI with no “past,” only task-based responses), but it still requires active and passive human labor to change and develop. The much-lauded “intelligence” produced by various training models is limited and dependent on humans.»
– R.H. Lossin, PhD. og J. Resnikoff, PhD., 2024 (4)

ChatGPT er ikke noe annet enn en videreutviklet (og mer avansert) versjon av det gode gamle psykologi-programmet ELIZA, som utnytter dine egne formuleringer i sine svar og gir inntrykk av at det skjønner hva du snakker om. Det gjør det selvsagt ikke. Det systemet gjør er å «gjette» seg til (via statistiske beregninger) hvilken rekkefølge av bokstaver du vil ha, og svaret står og faller på hvorvidt de data systemet har er korrekte. De første utgavene av denne samtaleroboten husket heller ikke uten videre tidligere samtaler med deg og det programmet virket å ha «lært» forrige gang du snakket med det, var glemt neste gang du logget inn og stilte samme spørsmål om samme tema.

Men etter hvert som både ChatGPT og de andre samtalerobotene ble videreutviklet, ble det tydeligere at alle «samtaler» ble lagret og de nyeste versjonene av f.eks. ChatGPT kan basere sine statistiske beregninger av mulige bokstavsammensetninger på tidligere interaksjoner.

Dette med at systemet kan «lære» fra sine brukere er selvsagt et fascinerende konsept for en som jobber med bevisstgjøring innen informasjonssikkerhet. Jeg kan ikke hjelpe for å tenke hvor lett det er å mate systemet med falsk informasjon om emner den i utgangspunktet ikke har en fullstendig datasamling om. Skjønt, per 2025 er det jo ikke nødvendig å «mate» en samtalerobot direkte med falske nyheter. Det klarer systemet godt selv via sine internettsøk.

I et av mine forsøk ber jeg systemet fortelle meg hvilke kilder det har lagt til grunn for sitt svar og responsen var som følger:

«As an AI language model, I do not have access to external sources of information. However, the information I provided is based on common knowledge and understanding of the topic.»

På mitt spørsmål om hvordan den kan vite at sitt svar var basert på allmenn kunnskap og forståelse for emnet, svarte det:

«As a language model, I have been trained on a large dataset of text and have learned to generate human-like responses based on the patterns and information contained in that dataset. This allows me to provide responses to a wide range of questions on a variety of topics.»

Som vi ser klarer ikke ChatGPT helt å svare på hvordan systemet rent konkret kan vite at dets svar er basert på «allmenn kunnskap».

Og hvordan har den så fått inn alle disse dataene, lurte jeg så på.

«I was not given any specific datasets of text. Rather, I was trained on a large dataset of text that was compiled and curated by OpenAI. This dataset includes a wide range of texts, including books, articles, and websites, and covers a wide variety of topics. During my training, I was able to learn and understand the patterns and structures of language, as well as the general knowledge and common understanding of many different subjects. This allows me to generate responses to a wide range of questions and to provide information on a wide variety of topics.»

Svarene over er nok et eksempel på at systemet ikke har noen form for refleksjonsevne, og det som fremkommer er kun en logisk sammensetning av ord som passer med dets datagrunnlag. Dette er ingen overraskelse siden et digitalt verktøy, uansett hvor avansert det er, ikke kan gå utenom det sett av «handlinger» det er programmert til å utføre.

Likevel er det stadig en boblende begeistring og optimisme å spore, iblandet panikk og dommedagsprofetier, for samtaleroboter og store språkmodeller. Slike verktøy kan nemlig med letthet klare en mastergrad! Eller kan de det?

Microsoft Copilot oppsummerer sitatene fra dette kapittelet

Leseliste

  1. Why Machine Learning is not Artificial Intelligence?
  2. Chatbots Don’t Know What Stuff Isn’t
  3. The stupidity of AI
  4. Why ChatGPT and Bing Chat are so good at making things up
  5. From Eliza to ChatGPT: why people spent 60 years building chatbots
<Forrige kapittelNeste kapittel>