Hvorfor er kunstig intelligens så vanskelig å få has på?

Mao Zedong var likegyldig til om katten var svart eller hvit, så lenge den fanget mus. Kunstig intelligens er blitt effektiv til å fange mus, men er samtidig vanskelig å få has på.

KRONIKK AV ANDERS LØLAND, FORSKNINGSSJEF VED NORSK REGNESENTRAL OG CO-DIRECTOR I BIGINSIGHT. Første gang publisert i dn.no 04.05.23

«Lov om behandling av personopplysninger» (inklusiv GDPR) trådte i kraft i 2016, og har vært en suksess, ikke minst på grunn av de store bøtene som kan ramme den som bryter loven. Det betyr ikke at alt er såre i vel i Personopplysnings-Norge, men feltet i seg selv er rimelig godt regulert. Og Datatilsynet passer på.

Bildet illustrerer katt som jager mus. Kunstig intelligens er blitt effektiv til å fange mus, men er samtidig vanskelig å få has på.

Kan vi ikke bare regulere kunstig intelligens på samme måte som med persondata?

Kunstig intelligens som misbruker persondata rammes av GDPR, men kunstig intelligens trenger ikke å innebære bruk av persondata. Chat GPT er for eksempel trent opp på store mengder tekst. Hvem har egentlig opphavsretten til det Chat GPT produserer?

Det er en frykt for at systemer som Chat GPT kan brukes til å masseprodusere falske nyheter og å påvirke folk, blant annet gjennom sosiale medier. Kunstig intelligens-nestoren Geoffrey Hinton, som står bak gjennombrudd innen nevrale nettverk og dyp læring, kom nettopp ut med slike advarsler i et intervju med New York Times.

Hinton frykter at internett vil bli oversvømt av falske bilder, videoer og tekst, og at mannen i gaten ikke vil være i stand til å skjønne hva som er sant eller usant. Det er symptomatisk at Hinton ikke turte å si fra om dette før han hadde sagt opp jobben sin hos Google.

Kan vi ikke bare forby slikt misbruk av kunstig intelligens?

Dessverre er det vanskelig å trekke et skarpt skille her: Det er komplekse gråsoner mellom det vi ikke liker – som påvirkning av folk og medier – og det vi liker – ytringsfrihet. Og bør noen i det hele tatt bestemme hva som er ekte eller alternative fakta?

Kunstig intelligens kan misbrukes på så mange måter, inkludert måter vi nok ikke kan forestille oss i dag. Hvem trodde for ti år siden at vi kunne få kunstig intelligens som på egen hånd kan lage dataprogrammer – eller datavirus?

Chat GPTs kildekode er ikke åpen. Vi vet ikke engang presist hva som er brukt som treningsdata. Dermed kan vi ikke se OpenAI eller Microsoft i kunstig intelligens-kortene.

Anders Løland. Foto: NR

Anders Løland

Kunstig intelligens utvikler seg raskere enn lovverket

Forsiden av medaljen er at det ikke er like rett frem for den med skumle hensikter. Åpen kildekode, som er blitt en slags gullstandard i forskningsverdenen, er en medalje som også har en bakside.

Siste utgave av Chat GPT baserte seg på språkmodellen GPT-4, som vi ikke vet så mye om bortsett fra at den ser ut til å fungere bedre enn eldre språkmodeller. Den siste åpne språkmodellen fra OpenAI er en versjon av GPT-2.

La oss helt hypotetisk si at Nord-Korea vil tilpasse GPT-2 – eller en nyere og bedre språkmodell som er åpen – til å masseprodusere datavirus for å ramme Vesten. Hva kan hindre Nord-Korea?

Kunstig intelligens utvikler seg raskere enn lovverket. Lover som ikke henger med er gammelt nytt, men nå går det kunstig fort i svingene. Holder det at EUs «AI Act» er på trappene og flere land jobber med nye reguleringer?

At det er vanskelig å regulere grå katter og sleip kunstig intelligens, betyr ikke at vi kan gi opp på forhånd.