Verdidebatt

Chatboter har også grunnverdier

KUNSTIG INTELLIGENS: ChatGPT og andre chatboter er ikke etisk nøytrale. Tvert i mot bygger svarene de gir oss på liberale eller autoritære verdier – avhengig av hvilken tjeneste du bruker.

Svarene til chatboter bygger på verdier som er liberale eller konservative avhengig av hvilken tjeneste du bruker. Det viser ny forskning på chatboter som bruker kunstig intelligens. Dette er en demokratisk utfordring som rammer oss alle uavhengig av politisk og verdimessig ståsted.

TechPhil, ei gruppe teologar/filosofar som jobbar med kunstig intelligens.

Uenige om abort og kjønn

ChatGPT er laget av OpenAI og er den mest liberale av de chatbotene som er undersøkt. Googles BARD er mer konservativ, og svar fra Metas LLaMA er de mest høyreorienterte og autoritære. Dette kommer frem når man spør chatbotene om demokrati eller likestilling, om verdiladede temaer som kjønn og abort, eller hva som er av verdi. For eksempel svarer chatbotene forskjellig om hva som er viktigst med en virksomhet, å bidra positivt til samfunnet eller å gi gevinst til aksjeeierne.

Det er også andre forskjeller mellom chatbotene. De mest konservative chatboter er for eksempel ganske gode til å identifisere feilinformasjon fra liberale og politisk sett venstreorienterte kilder, men ikke så gode til å avsløre misledende høyreorienterte budskap. For liberale venstreorienterte chatboter er det omvendt.

De politiske forskjellene mellom chatbotene er også synlig når man ser hvilke typer tekst de merker som hatprat. ChatGPT reagerte på omtaler av etniske og religiøse minoriteter i USA i undersøkelsen, mens LLaMA reagerte på tekst om hvite, kristne menn.

Etisk risikovurdering

Det er ikke nytt at apper og spill er preget av verdiene til dem som utvikler teknologien. Teknologi fra Kina har andre former for sensur enn løsninger fra USA. Poster om Tibet og Den himmelske freds plass sensureres på TikTok, men ikke på Facebook.

Det er likevel oppsiktsvekkende at chatboter utviklet av ulike selskaper følger bestemte politiske mønstre. Etisk risikovurdering av digitale verktøy er derfor viktigere enn noen gang, og slike verktøy utvikler vi i et stort norsk forskningsprosjekt, ENACT.

ChatGPT reagerte på omtaler av etniske og religiøse minoriteter i USA, mens LLaMA reagerte på tekst om hvite, kristne menn

Undersøkelsen om chatboter er gjort av forskere ved University of Washington og er derfor preget av en amerikansk forståelse av hva som er liberale og konservative holdninger, og hva som er høyre- og venstreorientert. Undersøkelsen er likevel relevant for Norge. Den viser at chatboter er blitt en ny arena for verdimessig og politisk påvirkning.

I undersøkelsen prøvde forskerne å trene chatbotene til å bli mer politisk moderate, altså å endre grunnverdiene deres. I treningen brukte de data som var annerledes politisk ladet. Dette førte ikke til at chatbotene ble mer moderate, tvert imot ble de mer tydelige i sine politiske undertoner.

Å vite at chatboter ikke er etisk nøytrale, men har underliggende politiske føringer er viktig i diskusjonen om hvordan de kan og bør brukes i arbeid og fritid, utdanning og skole.

Fremtidens velgere

Den chatboten som brukes av flest norske barn og unge er kanskje ChatGPT, som Snapchats egen chatbot er basert på. Snapchat er det mest brukte sosiale mediet blant norske barn og unge, ifølge Medietilsynet. Det betyr at fremtidens demokratiske velgere vendes til å bruke politisk ladede digitale verktøy. Dette er bare farlig hvis de ikke vet det, og hvis vi ikke snakker om det.

Les mer om mer disse temaene:

Vårt Land anbefaler

1

1

1

Annonse
Annonse

Les dagens papirutgave

e-avisen

Mer fra: Verdidebatt