Kommentar

Etisk intelligens

Telenor, Sintef og NTN startar forskingslab for kunstig intelligens. Der må etikken stå heilt sentralt.

Går det an å programmere ein robot til å gjere gode etiske val? Forskinga på kunstig intelligens kjem stadig lengre, og i pakt med dei teknologiske framstega står menneskeheita framfor store etiske utfordringar. Eit klassisk skrekkscenario er at forskarane utviklar ein kunstig intelligens som finn det for godt å urydde heile menneskeslekta – eit mykje brukt utgangspunkt for katastrofefilmar. Eit relativt ferskt døme har vi i den amerikanske ungdomsserien The 100, der ein flokk ungdommar kjempar febrilsk mot den kunstige intelligensen A.L.I.E.s gryande verdsherredøme.

Den faktiske forskinga på kunstig intelligens er framleis nokre kvantesprang unna Holly-
woods kreative innovasjonar. Samtidig er det ingen grunn til å plassere etikken som ein nisse bakarst på lasset. Vi treng ikkje å gå lengre enn nokre månader
attende for å illustrere eitt 
aspekt av problemet: Microsofts kunstige intelligens Tay var programmert til å lære av menneskeleg nettkommunikasjon. Berre 16 timar etter lanseringa i mars blei Tay trekt attende, eller å ha gått av hengslene på Twitter med konspirasjonsteoriar, hate-fulle utsegner om feministar («I fucking hate feminists and they should all die and burn in hell»), rosande ord om Hitler og omtale
av Barack Obama som ein apekatt.

Risiko. Kunne vi programmert Tay til å forstå at slike utsegner er etisk klanderverdige? Kanskje. Men episoden minner oss om at det er ein risiko for at ting går gale når maskiner skal lære å oppføre seg som folk. Når både menneske og maskin kan gå rett inn i rolla som nettroll, kva blir då det neste maskinene fangar opp? Kan dei i framtida finne på å gjere ord til handling?

I dag finst det så vidt eg veit ingen gode algoritmar for innlæring av moral. Slik finst ikkje eingong for menneska, vil nokon hevde. Det finst dessutan mange måtar å handle etisk på. Kanskje vil ein variant av Immanuel
Kants pliktetikk vere mogleg å programmere inn i ei maskin. Men kva viss konsekvensane av maskina si pliktetiske handling risikerer å bli fatale? Er det mogleg å lære maskina sunn fornuft?

Ny forskingslab. Nyleg kunne Telenor, Sintef og NTNmelde at dei skal samarbeide om ein ny forskingslab for kunstig intelligens. Der må etikken vere ein grunnleggande komponent. For det første må forskinga følgje etiske køyrereglar. Eit sett av generelle reglar finst nedfelt i dei forskingsetiske retnings- linjene som er utarbeidd av NENT, Den nasjonale forskningsetiske komité for naturvitenskap og teknologi. Eg skulle likevel ønskje at leiinga for den nye laben kunne opplyse offentlegheita om dei etiske prinsippa dei legg til grunn for forsking på kunstig intelligens.

Empati. For det andre bør utvikling av etisk intelligens stå høgt på agendaen. Ein av dei store bøygane ved kunstig intelligens er innlæring av menneskelege eigenskapar som empati, for ikkje å seie evna til tru, håp og kjærleik. Forskinga vil nok neppe nå så langt i vår levetid, men dess nærmare forskarane kjem, dess meir presserande spørsmål vil trenge seg på. I siste instans: Skal ein kunstig intelligens kunne elske eit menneske, eller tru på Gud? Har vi ikkje då kryssa grensa av overmot for lengst?

Ingen partykiller. Etikk må vere eit kjernepunkt i kunstig intelligens-forskinga både av konservative og progressive grunnar. Etikk er ikkje ein partykillar som dempar entusiasmen til forskarane, men tvert om ein nødvendig føresetnad for å kunne forsvare vidare forsking. Eg håper og reknar med at norske folkevalde i aukande grad vil følgje kunstig intelligens-forskinga tett. Vi må stille omfattande krav til etikken på eit så eksistensielt felt.

Les mer om mer disse temaene:

Alf Kjetil Walgermo

Alf Kjetil Walgermo

Alf Kjetil Walgermo er journalist og litteraturkritikar i Vårt Land. Han er tidlegare kulturredaktør i avisa. Walgermo er også forfattar.

Vårt Land anbefaler

1

1

1

Annonse
Annonse

Les dagens papirutgave

e-avisen

Mer fra: Kommentar