Eksistens

ChatGPT: Ekte pisspreik?

ChatGPT er overalt for tiden. Det store spørsmålet er om det er til å stole på. Er det KI («kunstig intelligens»), FI («falsk intelligens»), ED («ekte dumhet») eller EP («ekte pisspreik»)?

Publisert Sist oppdatert

ChatGPT (Chat Generative Pre-trained Transformer) fungerer ved å analysere tekster som allerede finnes og genererer deretter nye tekster på grunnlag av disse. Tekstene den setter sammen er grammatisk riktige – både på bokmål og nynorsk – og gir inntrykk av å være skrevet av et levende menneske.

Programmet omtales derfor som «kunstig intelligens» (KI). Den termen er nok valgt med tanke på markedsføring. Men det essensielle ved ChatGPTs intelligens er nettopp at den er «kunstig», den er ikke ekte. Et synonym til ordet «kunstig» er «falsk». ChatGPT genererer «falsk intelligens» (FI), det gir seg ut for noe det ikke er, eller sagt på mer saftig vis: ChatGPT genererer «ekte pisspreik» (EP).

Pisspreik vs. løgn

Pisspreik er overalt. Det sier den amerikanske filosofen Harry Frankfurt i essayet «On Bullshit» fra 1986, utgitt i bokform i 2005 (på norsk i 2008). Essayet konstaterer at bullshit, også kalt pisspreik på godt norsk, florerer i samfunnet. (Ordet «bullshit» står faktisk i den norske ordboken mens pisspreik ikke finnes der. Det bør rettes opp). Det er ikke den folkelige formen for pisspreik han snakker om, du vet, drøset som skjer rundt lunsjbordet på arbeidsplasser hver dag, der en smører på litt ekstra for at historien skal bli god. Nei, det han sikter til er de mer tvilsomme og utspekulerte formene for bullshit som en for eksempel finner innenfor politikk og reklame- og PR-bransjen.

Når det gjelder ChatGPT, kan vi iallfall slå fast at selve betegnelsen «kunstig intelligens» (KI) er «ekte pisspreik» (EP).

En essensiell egenskap ved bullshit, slik Frankfurt ser det, er at det er noe annet enn løgn. Det er viktig å huske på dette da løgn og bullshit ofte forveksles. En person som lyger erkjenner sannheten i en sak og forsøker bevisst å skjule eller forvrenge den. Pisspreikeren, derimot, bryr seg døyten om sannheten. Det Pisspreikeren bryr seg om er hva han oppnår. Pisspreikeren er usaklig og saklig om hverandre og har en skjult agenda. Grunnregelen for pisspreik er at alt er tillatt. Argumentene som brukes i pisspreik er således 100 prosent performative. Om de er sanne eller usanne, har ingen betydning, bare den ønskede effekten oppnås. Middelet er målet.

All verdens faktasjekking har liten virkning på Pisspreikeren siden den kommer på etterskudd. Skaden er allerede gjort og kan ikke trekkes tilbake. Fakta har ingenting med pisspreik å gjøre. Tankene går til USAs famøse ekspresident, Donald Trump, som ofte beskyldes for å være en lystløgner. Det hadde vært mer presist å kalle ham kongen av bullshit. Derfor biter ikke faktasjekking på ham heller.

USAs tidligere president Donald Trump er en prominent Pisspreiker. Foto Chandan Khanna / AFP / NTB.

Bullshit kan ha visse likhetstrekk med diktning og skjønnlitteratur. En god pisspreiker er også en god historieforteller og er ikke begrenset av fakta. Det samme gjelder jo for skjønnlitteraturen. Men, mens pisspreik alltid er forbundet med en konkret og avgrenset retorisk situasjon, er ikke skjønnlitteraturen det (dersom en ser bort fra diverse former for leilighetsdiktning). Dessuten er det forskjell på det kunstige og kunst. Kunstneren er (som regel) ærlig og åpen om at han bare later som. Bullshitteren er det ikke. En forfatter respekterer (som regel) den innforståtte kontrakten han har med leseren. Bullshitteren bryter leserkontrakten og svindler leseren det han makter.

Spør du ChatGPT om det produserer bullshit, får du et vagt svar som langt på vei likner på EP («ekte pisspreik»), eller sagt mer forsiktig: svada.

Om et utsagn kan betegnes som bullshit, avhenger således av intensjonen som ligger bak. Når det gjelder ChatGPT, kan vi iallfall slå fast at selve betegnelsen «kunstig intelligens» (KI) er «ekte pisspreik» (EP). Den er ikke laget for å beskrive sannheten om ChatGPT, men for å skape en positiv holdning til programmet. Det forholder seg likegyldig til sannheten og har en skjult agenda. Også betegnelsen «ChatGPT» er preget av å være bullshit da ordet «chat» gir inntrykk av at det generer virkelige samtaler, noe det slett ikke gjør. Det simulerer bare. Siste del av navnet er mer oppriktig: GPT eller Generative Pre-trained Transformer peker nettopp mot sannheten. Denne algoritmen lager tekst ved å forvandle (transform) tekster som allerede finnes ved hjelp av et sett med «pre-definerte» (pre-trained) regler.

Et «falskt jeg»

Navnet er én ting, hva med selve programmet? Genererer ChatGPT «ekte pisspreik» (EP)? Frankfurt sier jo at for å kunne kalle noe bullshit må en kjenne til intensjonene som ligger bak. Kan man si at en algoritme har intensjoner? Selvsagt. Enver algoritme har som nevnt et sett med pre-definerte regler nedfelt i koden, og disse reglene er bestemt av mennesker, det vil si programmererne og deres arbeidsgivere. Selv om programmet kan endre og omskrive sin egen programkode (det er et hovedkjennetegn ved KI), så det finnes noen grunnregler i bunn som står fast. Men hvem kan kontrollere dem?

Og her kommer vi til det store spørsmålet: Er ChatGPT til å stole på? Er det KI («kunstig intelligens»), FI («falsk intelligens»), ED («ekte dumhet») eller EP («ekte pisspreik»)?

ChatGPT har ikke en egen vilje, selv om det forsøker å gi inntrykk av det. For eksempel omtaler det seg selv som «jeg». Dette er et «falskt jeg», et «jeg» som ikke finnes. (Interessant nok er dette igjen noe ChatGPT deler med skjønnlitteraturen). Når en spør ChatGPTs algoritme hvorfor den bruker pronomenet «jeg» i sine tekster, svarer den at intensjonen er å lure leseren, altså bullshit. Påstanden om at ordet «jeg» skal «[…] gjøre det tydeligere for brukeren at de snakker med en AI-assistent [sic], og ikke med en faktisk person» er vanskelig å forstå:

Hvorfor bruker ChatGPTs algoritme pronomenet «jeg»?

---

ChatGPTs algoritme bruker pronomenet «jeg» for å gjøre samtalen mer naturlig og mer lignende en menneskelig samtale. Dette hjelper også til med å gjøre det tydeligere for brukeren at de snakker med en AI-assistent, og ikke med en faktisk person. Selv om ChatGPTs svar ikke kommer fra en bevissthet som hos et menneske, så kan bruken av «jeg» og andre menneskelige uttrykk bidra til å gjøre samspillet mer komfortabelt for brukeren. (ChatGPT-3.5, 07.03.23)

Problemet er at det er meget vanskelig å forholde seg til intensjonene – de «pre-definerte» reglene – som ligger nedfelt i ChatGPTs algoritme. Det samme gjelder jo alle andre programmer og apper, for eksempel søkemotorer som Google, Bing og Yahoo eller sosiale medier som TikTok, Facebook, Twitter og Snapchat. Men søkemotorer og sosiale medier produserer ikke egne utsagn, slik ChatGPT gjør. Spør du ChatGPT om det produserer bullshit, får du et vagt svar som langt på vei likner på EP («ekte pisspreik»), eller sagt mer forsiktig: svada. (Spørsmålet ble stilt på engelsk på grunn av bruken av ordet «bullshit.»)

If AIs pre-defined rules are impossible to check how can I know text generated is not bullshit?

---

It is important to understand that AI-generated text can sometimes produce results that are nonsensical or inaccurate. However, there are several ways to evaluate the quality and credibility of AI-generated text:

  1. Check the source: If the AI-generated text comes from a reputable source or platform, it is more likely to be reliable.
  2. Assess the coherence and grammar: AI-generated text should have proper grammar and coherent sentence structure. If the text appears disjointed or contains multiple errors, it may not be trustworthy.
  3. Evaluate the content: AI-generated text should provide accurate and relevant information. If the content is inaccurate or does not make sense, it may not be reliable.
  4. Compare with other sources: You can compare the AI-generated text with other sources to see if the information provided is consistent.

It is important to note that AI-generated text is still a developing technology, and it is not yet perfect. As a user, it is important to be vigilant and critically evaluate the information provided by AI-generated text. (ChatGPT-3.5, 07.03.23)

Til å stole på?

ChatGPT ble lansert i 2022 av det amerikanske ideelle selskapet OpenAI, hvor blant andre Elon Musk er styremedlem. Foto Michael Dwyer / AP Photo / NTB.

ChatGPT unngår her fullstendig å svare på spørsmålet, akkurat som en dreven politiker. (Bruken av ordet «may» i punkt 3 er særdeles merkelig). Dette ser jo langt på vei ut som EP («ekte pisspreik»), men uten bedre kjennskap til algoritmens pre-definerte regler er det umulig å gi et entydig svar. Det kan hende dette bare er såkalt «ekte dumhet» (ED). ChatGPTs tekst sier at vi må være kritiske til tekstene det lager, men nevner ikke reglene i selve algoritmen, der programmets agenda ligger. Det er derfor umulig å fastslå om ChatGPT har en skjult agenda eller ei. Det å kontrollere innhold og grammatikk/syntaks i tekstene er ikke nok. Vi må kjenne til intensjonene bak valgene algoritmen gjør når den lager tekst. Og her kommer vi til det store spørsmålet: Er ChatGPT til å stole på? Er det KI («kunstig intelligens»), FI («falsk intelligens»), ED («ekte dumhet») eller EP («ekte pisspreik»)?

Pisspreik er mest vanlig i muntlig språkbruk. Særlig når personer skal uttale seg om noe de ikke har greie på. Muntlig språkbruk skjer i «real time», og da er det lett å bløffe tilhøreren. Derimot, når en leser en tekst, kan en stoppe opp, lese utsagnet mange ganger og sjekke fakta underveis. Det går ikke i en samtale. Derfor er en samtale avhengig av en viss tillit mellom deltakerne. Når en slår av en prat med en venn er det innforstått at en ikke gjør det primært for å oppnå noe. Slik er det ikke når en chatter med ChatGPT. Det eksisterer i en digital gråsone mellom muntlig språk og skrift. Det kan generere skriftlige tekster like raskt som replikker i en samtale. Resultatet er tilforlatelig, men bare så lenge en har tillit til programmet.

Generer så ChatGPT «ekte pisspreik» (EP)? Når alt kommer til alt kan en si at ChatGPT gjør to ting.

  1. Det finner frem til informasjon og omdanner det til ny tekst på imponerende vis.
  2. Det simulerer muntlig språkbruk på en overbevisende måte.

Når det gjelder punkt 1, svarer ChatGPT selv at en ikke kan stole på tekstene det genererer. ChatGPT tillater jo feilaktige utsagn. Det skaper tekst om ting det ikke har greie på. Når det gjelder punkt 2, er det klart at chattingen har en skjult agenda som ikke er forbundet med sannhet. ChatGPT vil påvirke leseren, eller for å bruke dets egne ord, ChatGPT vil: «[…] gjøre samspillet mer komfortabelt for brukeren». ChatGPT lager tekst som kan være både sann og usann samtidig som det søker å bearbeide leseren gjennom et behagelig, simulert, muntlig språk. Det høres ut som et glimrende utgangspunkt for EP («ekte pisspreik»), spør du meg. Til OpenAIs forsvar kan en si at ved å gjøre ChatGPT fritt tilgjengelig for alle, har firmaet satt problemet åpent og ærlig på dagsorden. Det skal de ha.

ChatGPT og liknede programvare er fantastiske verktøy. Men som ethvert verktøy kan ChatGPT misbrukes. Før disse algoritmene og de mektige selskapene som kontrollerer dem blir underlagt en forsvarlig form for kontroll, er det best å ta alt ChatGPT skriver med en klype salt. En meget stor klype.

Powered by Labrador CMS