Kap. 3 En tjenende ånd eller en falsk lurendreier?

«People think of computers as being these super intelligent beings. They are smarter than us, they know far more facts than us, and we should trust them to make decisions for us. But they’re just pattern finders
– Professor Gary Smith, 2023 (1)

«Generative AI might produce superficially impressive results at first blush, but it is not revolutionary; it does not present a dramatic historical or technical break with the past. It does not “move” or “evolve” on its own. “Limited memory” AI (that is, AI that can store experiences acquired over time) may have superseded the chess-playing “reactive machines” of the 1990s (i.e., AI with no “past,” only task-based responses), but it still requires active and passive human labor to change and develop. The much-lauded “intelligence” produced by various training models is limited and dependent on humans.»
– R.H. Lossin, PhD. og J. Resnikoff, PhD., 2024 (2)

ChatGPT er ikke noe annet enn en videreutviklet (og mer avansert) versjon av det gode gamle psykologi-programmet ELIZA, som utnytter dine egne formuleringer i sine svar og gir inntrykk av at det skjønner hva du snakker om. Det gjør det selvsagt ikke. Det systemet gjør er å «gjette» seg til (via statistiske beregninger) hvilken rekkefølge av bokstaver du vil ha, og svaret står og faller på hvorvidt de data systemet har er korrekte. Systemet husker heller ikke uten videre tidligere samtaler med deg (i noen versjoner bli samtalene lagret, men det virker ikke som om dette uten videre influerer på systemets svar) og det systemet virket å ha «lært» forrige gang du snakket med det, er glemt neste gang du logger inn og stiller samme spørsmål om samme tema.

Dette med at systemet kan «lære» fra sine brukere er selvsagt et fascinerende konsept for en som jobber med bevisstgjøring innen informasjonssikkerhet. Jeg kan ikke hjelpe for å tenke hvor lett det er å mate systemet med falsk informasjon om emner den i utgangspunktet ikke har en fullstendig datasamling om. Men for at man skal kunne utnytte ChatGPT som en «Fake News»-generator, må den lagre informasjonen du gir den, samtidig som informasjons-input fra brukere ikke sjekkes av forskerne ved Open AI. Jeg er fortsatt noe usikker på hvordan systemet her er satt opp, og så langt virker det ikke som om det foretas langtidslagring av opplysninger gitt av en bruker. Muligens skyldes dette at systemet fortsatt er under utvikling, og at ny informasjon (etter 2022) derfor ikke registreres. Men dette er bare en fundering basert på mine egne begrensede forsøk. I januar 2023 rapporteres det at kriminelle allerede har tatt ChatGPT i bruk, og dette gjør det jo interessant å studere systemet i alle fagemner som omhandler cyberkriminalitet.

I et av mine forsøk ber jeg systemet fortelle meg hvilke kilder det har lagt til grunn for sitt svar og responsen var som følger:

«As an AI language model, I do not have access to external sources of information. However, the information I provided is based on common knowledge and understanding of the topic.»

På mitt spørsmål om hvordan den kan vite at sitt svar var basert på allmenn kunnskap og forståelse for emnet, svarte det:

«As a language model, I have been trained on a large dataset of text and have learned to generate human-like responses based on the patterns and information contained in that dataset. This allows me to provide responses to a wide range of questions on a variety of topics.»

Som vi ser klarer ikke ChatGPT helt å svare på hvordan systemet rent konkret kan vite at dets svar er basert på «allmenn kunnskap».

Og hvordan har den så fått inn alle disse dataene, lurte jeg så på.

«I was not given any specific datasets of text. Rather, I was trained on a large dataset of text that was compiled and curated by OpenAI. This dataset includes a wide range of texts, including books, articles, and websites, and covers a wide variety of topics. During my training, I was able to learn and understand the patterns and structures of language, as well as the general knowledge and common understanding of many different subjects. This allows me to generate responses to a wide range of questions and to provide information on a wide variety of topics.»

Svarene over er nok et eksempel på at systemet ikke har noen form for refleksjonsevne, og det som fremkommer er kun en logisk sammensetning av ord som passer med dets datagrunnlag. Dette er ingen overraskelse siden et datasystem, uansett hvor avansert det er, ikke kan gå utenom sitt eget programsystem.

Leseliste

  1. Why Machine Learning is not Artificial Intelligence?
<Forrige kapittelNeste kapittel>