Winter is coming: Nedtur for kunstig intelligens?

Teslaen stusser i møte med hest og kjerre, og den sliter egentlig med det samme som 1980-tallets «ekspertsystemer»: Hvordan takle noe en ikke har sett før?

KRONIKK AV ANDERS LØLAND, FORSKNINGSSJEF I NORSK REGNESENTRAL OG CO-DIRECTOR I BIGINSIGHT. Første gang publisert i Dagens Næringsliv 09.08.23.

I 1973 ble den såkalte «Lighthill-rapporten» lagt frem for det britiske parlamentet. Den konkluderte med at forskningen på kunstig intelligens ikke var i nærheten av å nå sine svært ambisiøse mål.

«Men kanskje kommer’n ikke

All vår oppdekning til tross

Det gjør ikke så mye

For da blir det mer til oss, ja»

«Kanskje kommer kongen» (Knutsen & Ludvigsen)

I 1973 ble den såkalte «Lighthill-rapporten» lagt frem for det britiske parlamentet. Den konkluderte med at forskningen på kunstig intelligens ikke var i nærheten av å nå sine svært ambisiøse mål. Foto: Mark Stuckey / Unsplash

AI-vinter i vente?

En «KI-vinter» er en lengre periode med redusert finansiering av og interesse for kunstig intelligens (KI). Vi har vært gjennom flere slike vintre tidligere, kanskje særlig i årene 1974–1980 og 1987–1993.

I 1973 ble den såkalte «Lighthill-rapporten» lagt frem for det britiske parlamentet. Den konkluderte med at forskningen på kunstig intelligens ikke var i nærheten av å nå sine svært ambisiøse mål. Omtrent samtidig konkluderte det amerikanske forsvarsforskningsinstituttet Darpa med at det meste av KI-forskningen sannsynligvis ikke ville produsere noe nyttig i overskuelig fremtid.

På 1980-tallet var det store forhåpninger til såkalte ekspertsystemer. Ekspertsystemer er beslutningsstøttesystemer basert på et sett med regler og fakta.

I 1987 (samme år som aksjemarkedet fikk sin «Black Monday»!) kollapset markedet bygd opp rundt slike ekspertsystemer. Systemene var vanskelige å oppdatere, de var ikke i stand til å lære og de kunne produsere katastrofale feil når de så uvanlige data.

Generativ kunstig intelligens

Men denne gangen er det vel annerledes? Er ikke Chat GPT den nye vinen?

Det er noen fundamentale hindringer på veien, og jeg vil diskutere to av dem her: 1) hallusinering og 2) sjeldne hendelser.

Prateroboter som Chat GPT har tatt verden med storm, godt hjulpet av datakraft og store mengder data. Det er en ingeniørbragd å få teknologi som er basert på å predikere neste ord i en setning – som er det språkmodeller som GPT gjør – til å fungere så bra.

Chat GPT/GPT er en del av en større klasse av systemer som kalles generativ kunstig intelligens. Det inkluderer blant annet det å generere bilder eller programkode. Ofte går det bra, men det har vist seg at det som gjør slike systemer så nyttige også er deres akilleshæl; de vet ikke hva som er fakta og ikke. Dette er et aktivt forskningsfelt, men å hindre all hallusinering er kanskje ikke mulig.

Kunstig intelligens i en Tesla

Det verserer en video på nettet fra en Tesla som havner bak en hestevogn. Den kunstige intelligensen i Teslaen har nok ikke sett en vogn trukket av hester tidligere. Den bytter derfor mellom å klassifisere det den oppfatter via sine kameraer som en lastebil, en personbil eller en person.

Dette illustrerer et hinder for kunstig intelligens som kan være uoverstigelig: Hvordan skal kunstig intelligens oppføre seg når den får data som ikke ligner på noe den har sett før? Sannsynligheten for at en hestevogn dukker opp på veien er veldig liten, men konsekvensene kan bli katastrofale hvis den kunstige intelligensen havner på ville veier.

Når kommer neste nedtur for kunstig intelligens? Teslaen stusser i møte med hest og kjerre, og den sliter egentlig med det samme som 1980-tallets «ekspertsystemer».

Teslas hypermoderne kunstige intelligens og åttitallets ekspertsystemer sliter egentlig med akkurat det samme, nemlig såkalt ekstrapolering: Hvordan takle noe en ikke har sett før?

Til tross for alle fremskritt for maskinlæring er vi mennesker fortsatt veldig mye bedre enn maskiner til å tenke utenfor boksen. Vi er derfor ganske trygge så lenge Chat GPTs forslag og Teslas gjenkjenning av objekter i trafikken brukes som beslutningsstøtte. 

Kunstig intelligens på bortebane

Automatiserte beslutninger basert på hallusinering eller kunstig intelligens på bortebane – i verste fall i autonome våpen – kan derimot være en giftig oppskrift.

Knutsen & Ludvigsen oppsummerer med «Men kanskje kommer’n ikke» (AI-vinteren, altså), og «Det gjør ikke så mye. For da blir det mer til oss».

For å unngå at de amerikanske teknologigigantene styrer skuta alene, håper jeg det blir en KI-sommer i Norge fremover.