Det som kan se ut som en science fiction-film, viser seg å være et nåtidsdrama: Maskiner tar egne valg, selvkjørende droner avgjør kriger, roboter utfører kompliserte operasjoner. Selv tilhører jeg ikke dem som tror at maskiner styrt av onde makter, vil få verdensherredømme. Men jeg frykter at vi ikke forstår omfanget av hvordan kunstig intelligens (KI) og maskinlæring kan endre samfunnet vårt og ikke minst – hvordan de nye teknologiene utfordrer grunnleggende menneskerettigheter og etikk.
«Utsatt for» kunstig intelligens hver dag
Vi blir «utsatt for» kunstig intelligens hver dag, uten at vi tenker over det: I Facebook-feeden dukker det opp poster og annonser som ingen person har valgt ut for deg. I Google-søket kommer det opp forslag basert på millionvis av tidligere søk. Nav-utbetalingen er automatisert og vedtaket er trolig gjort av en smart datamaskin, skatteoppgjøret og tilsagn om billån likeså. Blir du innkalt til et intervju i et stort firma eller får studieplass ved et universitet, er det mulig at ingen mennesker har lest søknaden din. Fengselsstraffen som foreslås i en rettssal, kan være beregnet av maskiner.
Våre spor tolkes
Kunstig intelligens handler blant annet om at vi mater uhorvelige mengder data inn i maskiner og ber dem om å gjenkjenne mønstre. På den måten kan maskiner effektivisere beslutningsprosesser og se nye sammenhenger. En rekke arbeidsoppgaver som har vært gjort av mennesker, kan gjøres av maskiner. Dette er ikke noe nytt. Kunstig intelligens og maskinlæring har vært brukt siden 1940-tallet. Det nye er omfanget. Våre egne dataspor, alt det vi etterlater oss digitalt av daglige valg, språkbruk, bevegelser og handlemåter, tas i bruk i utviklingen.
Effektivitet er vel og bra. Men hva gjør maskinene med den informasjonen vi mennesker produserer? De gjør som oss. Og vi er som kjent mennesker fulle av fordommer. Vi diskriminerer.
Rasistisk system der svart = kriminell
Joy Buolamwini, forsker ved MIT og grunnlegger av Algorithmic Justice League, publiserte i vår en studie som avslørte utstrakt rasisme og kjønnsdiskriminering i KI-systemene til IBM, Microsoft og Amazon. Ansiktsgjenkjenningen til teknologigigantene gjorde stort sett ingen feil når de skannet hvite ansikter. Men når de skulle klassifisere ansiktene til svarte, tok de feil hver tredje gang. Når maskinene skulle gjenkjenne svarte kongressmedlemmer, ble de matchet med «mugshots» – politibilder – av svarte kriminelle. Datasystemene hun studerte, er blant annet brukt for å gjenkjenne kriminelle eller mistenkte i menneskemengder. Politietaten i New Orleans har brukt Amazons ansiktsgjenkjenningssystemer i seks år, og faren for at maskinene forsterket den rasismen som allerede har vært et problem i det amerikanske rettssystemet, er overhengende.
Farlig diagnosefeil kan oppstå
Maskinenes rasisme kan få alvorlige konsekvenser for enkeltmennesker. Helsevesenet bruker kunstig intelligens, og det kan være svært effektivt. Det viser seg blant annet at maskiner er langt bedre enn leger når det gjelder å gjenkjenne føflekk-kreft på et tidlig stadium, men er ganske lite treffsikker hvis huden med føflekken er mørk.
Jobbannonser kun for menn
Også når det gjelder kjønn, diskriminerer maskinene – fordi de baserer seg på data fra en verden som diskriminerer. Hvis du er en kvinne med høy utdannelse på jakt etter en lederjobb, er det ikke sikkert at jobbannonsen for direktørstillinger engang dukker opp i din Facebook-feed. Ikke fordi selskapet som har en stilling ledig, bare ønsker seg mannlige søkere, men fordi algoritmene som bestemmer hvem som skal se hvilket innhold, forsterker det som allerede er en tendens. Amazon forkastet et rekrutteringsverktøy de hadde brukt siden 2014, da de oppdaget at kvinners kompetanse ble nedgradert. Systemet var trent opp basert på data fra en tiårsperiode, men hovedsaklig kom dataene fra menn.
Når vi mater maskiner med skitt, så kommer det skitt ut i andre enden.
På tide ned en nasjonal strategi
I disse dager utformer regjeringen sin strategi for kunstig intelligens. Den skal være klar ved årsskiftet. Det er på høy tid. I fem år mente statsminister Erna Solberg at det ikke var behov for noen egen nasjonal KI-strategi. Hun stolte på at de lovene og reguleringene vi allerede hadde, var tilstrekkelige. Det er de ikke. I Granavoll-erklæringen var kunstig intelligens utmeislet som et eget politikkområde, og vi fikk vår første digitaliseringsminister i Nikolai Astrup (H). Slike nasjonale strategier finnes allerede i mange land. EU har sin, FN har sin. En rekke private teknologiselskaper, som Sopra Steria, Accenture og Tieto, har etablert sitt sett med KI-etikk som er langt modnere enn det vi har i vårt politisk vedtatte lovverk.
Noen glimrer med sitt fravær
I innspillsrunden departementet har invitert til, påpeker en rekke sentrale aktører viktigheten av å trene beslutningstakere og organisasjoner i etikk. Mangfold er avgjørende. Hvis bare teknologene tar ansvar for å utforme KI-systemene og disse teknologene i hovedsak er hvite menn med samme erfaringsbakgrunn og utdannelse, får vi skjevheter forsterket og systematisert. Seniornett skriver for eksempel i sin uttalelse at de frykter for eldres personvern og ønsker selv å ta rollen som digital vaktbikkje for landets eldste befolkning.
Noen sentrale aktører glimrer med sitt fravær i denne viktige innspillsrunden. Det er skuffende og overraskende at ikke Likestillings- og diskrimineringsombudet, IMDI, Antirasistisk senter og NOAS har brukt muligheten til å stille krav og være med å utforme en KI-strategi og et nasjonalt etisk rammeverk.
Teknologioptimisme
Kunstig intelligens byr på svært mange muligheter, og vi er bare i startfasen på å ta disse teknologiene i bruk for alvor. For at dette verdenseksperimentet skal gå bra, må vi holde etikk-fanen høyt og forstå hvordan systemene forsterker vårt samfunns svakeste sider.
–––––––––––––––––––––––––––––––––––––––––––––––––––––
Vårt Land har skrevet flere gode saker om kunstig intelligens:
* Han bruker kunstig intelligens, musikk og rytmer for å diagnostisere av cerebral parese.
* Annas robot jakter etter plast på havbunnen.
* Trenger maskinene menneskerettigheter? Ja, mener filosofen Einar Bøhn. – Vi har en tendens til å behandle alt annet enn mennesker som midler, sier han,