Er ChatGPT en klok samtale­partner eller papegøye?

Det er lett å tro at ChatGPT er et bevisst og tenkende vesen, eller en slags utbedret versjon av den menneskelige hjernen i silisium. Men slik er det ikke.

KRONIKK AV PIERRE LISON, SENIORFORSKER I MASKINLÆRING OG SPRÅKTEKNOLOGI VED NORSK REGNESENTRAL OG UNIVERSITETET I OSLO OG INGRID LOSSIUS FALKUM, FØRSTEAMANUENSIS I LINGVISTIKK OG KOMMUNIKASJONSFILOSOFI, UNIVERSITETET I OSLO. Første gang publisert i forskersonen.no 18.02.23.

Er ChatGPT en papegøye?

Allerede i 1962 uttalte den britiske science fiction-forfatteren Arthur C. Clarke at «enhver tilstrekkelig avansert teknologi er umulig å skjelne fra magi». Sjelden har sitatet virket mer treffende enn for ChatGPT, den nyeste prateroboten basert på kunstig intelligens (KI), som har tatt verden med storm.

Det kunstig intelligens-drevne dataprogrammet, utviklet av den amerikanske bedriften OpenAI, klarer tilsynelatende å besvare alle typer forespørsler, fra faglige spørsmål til matoppskrifter og kjendisstoff med særdeles velformulerte redegjørelser. Den har også skapt bekymring blant lærere som frykter at den kan hjelpe elever med å jukse på innleveringene sine.

I møte med slike imponerende ferdigheter kan man være fristet til å betrakte prateroboten som et bevisst og tenkende vesen, eller en slags utbedret versjon i silisium av den menneskelige hjernen. Men slik er det ikke. Den mest passende beskrivelsen av hvordan ChatGPT fungerer bak kulissene er at den gjetter seg frem til et svar. La oss forklare.

En gjettemaskin

Kjernen i ChatGPT er en språkmodell, det vil si et kunstig intelligens-system laget for å produsere tekst. Språkmodeller er basert på store nevrale nettverk som består av milliarder små regneenheter, eller nevroner, som de også kalles, som er koblet sammen. Slike modeller kan «trenes opp», noe som betyr at de automatisk justerer sine beregninger, og dermed hva som kommer ut av systemet, basert på data som mates inn.

Når vi «snakker med» prateroboten, er det vanskelig å ikke få en opplevelse av at vi snakker med noen. Da er det lett at vi også tillegger den egenskaper og ferdigheter den ikke har, og tolker informasjonen den mater ut i lys av dette.

Dagens språkmodeller er lært opp på enorme mengder tekstdata (over 300 milliarder ord for ChatGPT) hentet ut fra et bredt spektrum av nettkilder, fra Wikipedia til digitaliserte bøker, avisartikler og nettfora. Med dette som grunnlag er modellen satt til å løse én enkelt oppgave:

Gitt en rekke av ord, må den gjette det neste ordet i setningen. Og det neste – inntil teksten er ferdig skrevet.

Ved første øyekast kan dette virke som en nokså meningsløs øvelse. Men gitt nok treningsdata kan modellen brukes til å besvare spørsmål. Spørsmålet må først gjøres om til en tekst som skal fylles ut, som for eksempel:

Elev: Ved hvilken temperatur kokes vann?

Lærer: <må fylles ut>

Språkmodellen kan deretter brukes til å regne ut sannsynlige utfyllinger av lærerens svar, som for eksempel. «Jeg tror vannet koker ved 100 grader» eller «Det avhenger av lufttrykket».

For språkmodellen er svaret kun en rekke bokstaver koblet med en sannsynlighet. Den har aldri «opplevd» vann eller varme, og har ikke noe forhold til sannhet som sådan. Det er kun statistiske regelmessigheter i form, og ikke egentlig innhold, prateroboten lærer.

Prosessen som brukes til å besvare spørsmålet er derfor helt annerledes enn for oss mennesker, hvor ordene vann og koker har en reel, fysisk betydning utenfor samtalen.

Språkmodeller forsøker altså ikke å resonnere seg fram til et svar, men leter bare etter en utfylling som ligner mest mulig på tekstgrunnlaget som gikk inn i læringsprosessen. Ofte fungerer dette overraskende bra, men dette må ikke forveksles med menneskelige resonneringsevner.

Kloke Hans, hesten som kunne regne

Det er ikke første gang i historien vi la oss lure av skapninger som utfordrer vårt syn på intelligens. Tidlig på 1900-tallet skapte en tysk hest stor oppmerksomhet over hele Europa.

«Kloke Hans», som han ble kalt, kunne nemlig løse aritmetiske beregninger og svare på ulike intellektuelle oppgaver (inkludert å lese tekst) ved å trampe med hoven. Senere ble det demonstrert at hestens adferd ikke hadde noe med disse oppgavene å gjøre, men isteden reflekterte hestens reaksjoner på ufrivillige signaler i kroppsspråket til den menneskelige treneren.

Dette har senere blitt kalt «Kloke-Hans-effekten» og har en klar parallell til vår tids ChatGPT: Kloke Hans klarte å løse disse intellektuelle oppgavene ved å ta en snarvei og utnytte andre typer «signaler» enn de som var forventet, nemlig kroppsspråket til treneren som stod ved hans side.

Dette likner på språkmodeller som frembringer tekst ved å gjenkjenne og gjengi språksignaler plukket opp i store tekstsamlinger, uten noe forsøk på å tolke den kommunikative hensikten til avsenderen eller forankre samtalen i en felles opplevelse av omverdenen, slik vi mennesker automatisk gjør.

Snakker vi virkelig med ChatGPT?

Vi har en iboende tendens til å projisere menneskelige egenskaper på andre vesener. Allerede i løpet av første leveår er spedbarn i stand til å forstå andres hensikter, og kan skille mellom rasjonelle og ikke-rasjonelle handlinger.

I en studie fra 2000-tallet viste forskere at når ettåringer fikk se en voksen skru på en lysbryter med hodet istedenfor med hendene, imiterte de den voksnes handling bare hvis de antok at den hadde en rasjonell begrunnelse, for eksempel når den voksne hadde hendene fulle med noe annet.

Vår evne til å forstå andres hensikter spiller en sentral rolle i språkforståelse, og vi vil nærmest automatisk tillegge snakkende og handlende vesen både hensikter og rasjonalitet, selv når vi vet at dette ikke er tilfellet. Slik antropomorfisme gjelder ikke bare for vårt syn på dyr som kloke Hans, men også for KI-drevne programvare som ChatGPT.

Når vi «snakker med» prateroboten, er det vanskelig å ikke få en opplevelse av at vi snakker med noen. Da er det lett at vi også tillegger den egenskaper og ferdigheter den ikke har, og tolker informasjonen den mater ut i lys av dette. Godt hjulpet av både media og produsentene bak som stadig forteller oss hva KI-systemene «tror», «mener» eller «føler».

Vi bør være på vakt mot å se på disse systemene som om de var selvstendige agenter med egne hensikter, erfaringer og meninger. For at vi skal kunne ta informerte beslutninger rundt påliteligheten og sikkerheten til slike KI-systemer trenger vi kunnskap om hvordan de faktisk fungerer.

Ja, prateroboter slik som ChatGPT kan produsere tekster som er forbløffende velformulerte. Til tross for deres imponerende språkferdigheter er de i realiteten lite annet enn sofistikerte papegøyer.

Pierre Lison er en del av språkteknologi-gruppen i NR, les mer om hva de jobber med her