Bilde 1 av 2

Drapsrobotene

De støvsuger, selger aksjer og kjører bil. I framtiden vil de også kunne drepe på egen hånd. Robotrevolusjonen er i anmarsj, men etikken henger etter.

Reportasje

Robotene blir stadig mer sofistikerte og inntar flere deler av hverdagen vår. De er dyktigere enn oss i sjakk, og på sykehus brukes de til å utføre operasjoner. Innen 2030 vil de attpåtil kunne ta over bilkjøringen vår, ifølge ledende bilprodusenter, som lover en nedgang i trafikkulykker. Men framtiden er ikke nødvendigvis bare lys. Den har også et mørkt potensial. De teknologiske framskrittene vil gjøre det mulig å lage selvstyrte våpen som på egen hånd kan bestemme seg for å drepe, helt uten menneskelig inngripen.

Farligere enn atomvåpen

Enkelte mener robotrevolusjonen kan bære i seg kimen til menneskets undergang. Frykten målbæres ikke av hvem som helst. Tesla-gründer Elon Musk mener teknologien er potensielt farligere enn atomvåpen. Den kjente vitenskapsmannen Stephen Hawking tror den kan føre til slutten på menneskeheten. Grunnlaget for teknologien de frykter, er kunstig intelligens.

– Jeg pleier å bruke mobiltelefonen som eksempel, sier informatikkprofessor Jim Tørresen.

Kan lære

Han jobber ved Universitetet i Oslo, og har skrevet boken Hva er kunstig intelligens?

– Når man skriver en SMS, lærer tekstprogrammet av brukeren og foreslår ord basert på det som er skrevet tidligere. Vi snakker om lærende systemer som tilpasser seg mens de er i bruk, og som gradvis blir flinkere til å gjøre det brukeren ønsker. Kunstig intelligens er altså datasystemer som er i stand til å korrigere sin egen oppførsel, sier Tørresen.

Advarer mot våpenkappløp

De teknologiske mulighetene stopper ikke ved harmløse SMS, ­uansett hvor krigersk innhold de måtte ha. I fjor ble selvstyrte drapsroboter viet en egen FN-­konferanse. Nylig fikk Elon Musk og Stephen Hawking delvis støtte av over 1.000 forskere innen kunstig intelligens. I et åpent brev i regi av organisasjonene The future of life hevder forskerne at det innen kort tid vil være mulig å bruke kunstig intelligens til å lage selvstyrte våpen, også kalt drapsroboter.

De teknologiske mulighetene omtales som en tredje revolusjon innen krigføring, med krutt og kjernefysiske våpen som forløpere. Forskerne kaller drapsrobotene for morgendagens Kalashnikov. Våpnene vil være billige å masseprodusere, og det vil bare være et tidsspørsmål før noen av dem havner i terroristers hender, advarer gruppen. For å stagge et internasjonalt våpenkappløp, ønsker de derfor et forbud.

LES OGSÅ: Ble drapsdømt som 12-åring - nå er han 29 og prest

Våpen på egenhånd

Tørresen ved UiO ser faren.

– Det er for eksempel snakk om helautomatiske droner. Det vil si at et våpen på egenhånd kan avgjøre om det skal angripe eller ikke. Det er urovekkende, sier han.

Han mener det likevel vil være vanskelig å lage slike våpen.

– Hvordan skal et våpen selv finne ut hvem som er fienden og hva som skal angripes, hvis ikke mennesker har vært inne og gjort noen avgrensninger? spør han.

På grunn av de mange farene ved teknologien, har Elon Musk donert 10 millioner dollar til Future of life. Pengene skal brukes til å forske på hvordan kunstig intelligens kan brukes på en trygg måte.

LES OGSÅ: De digitale flygebladene

Etisk etterlep

Moralfilosof Henrik Syse sier utviklingen går så raskt at det er vanskelig å holde tritt med de nye våpenmulighetene.

– Det tar dessverre lang tid å få på plass de folkerettslige instrumentene vi trenger for å regulere bruken. Lover skal formuleres og innføres. Her kan Menneskeheten er på etterskudd når det gjelder alvoret i de utfordringene vi står overfor, sier han.

Syse er forsker ved fredsforskningsinstituttet Prio og redaktør av tidsskriftet Journal of Military Ethics. De siste årene har det kommet flere ­artikler som tar for seg den teknologiske utviklingen.

LES OGSÅ: Roboten som har hjerte

Etisk bakpå

– Det har vært en sterk økning i bevisstheten om de etiske problemstillingene som dukker opp, og det er positivt. Stadig flere drøfter dette i et ­militæretisk og folkerettslig perspektiv.

Etikken havner ofte bakpå, ifølge Syse.

– Utviklingen går så raskt at slike prosesser nesten uansett havner på etterskudd. Vi vet ikke helt hva vi diskuterer før teknologien er her, påpeker han.

Det finnes også de som mener automatiserte våpen kan bidra positivt.

– Enkelte etikere argumenterer for at slike våpen er mer ­humane. De hevder automatiserte våpen volder mennesker og miljø mindre skade, og at vi derfor har en forpliktelse til å utvikle slike våpen. Men det er et synspunkt som er i mindretall, sier Syse.

LES OGSÅ: Ber Norge­ forby atomvåpen

Etikk og ansvar

Organisasjonen The future of life har sett på ulike etiske problemstillinger som reises ved å ta i bruk kunstig intelligens, også på andre områder enn våpen. De nevner blant annet:

• Lovgivning for selvstyrte biler: Hvem skal stå til ansvar ved ulykker med selvstyrte biler?

• Maskinens etiske vurderinger: Hvordan skal maskinene avveie ulike hensyn? For eksempel i en situasjon som man vet innebærer liten risiko for menneskelig skade, men stor sannsynlighet for store materielle skader. Bør det lages nasjonale standarder for slike avveininger?

• Selvstyrte våpen: Er det mulig å lage selvstyrte våpen som tar hensyn til humanitære regler? Hvis man innfører forbud, hvordan skal man definere hva som kan regnes som et våpen der mennesker har kontroll.

• Personvern: Hvordan skal systemer som samler inn data fra videokameraer, telefonlinjer og e-poster, ta hensyn tilpersonvernet?

• Profesjonsetikk: Hvilken rolle bør vitenskapsmenn spille i lovgivning og etiske vurderinger?

Farlige mennesker

De dystre spådommene stopper ikke ved drapsroboter. Stephen Hawking er redd for at maskinene skal bli så smarte at de kan bestemme seg for å ta fullstendig kontroll og forsøke å utslette menneskeheten.

Tørresen mener frykten er overdrevet.

– At systemene skal gjøre noe som ikke er ønsket av mennesker, og bestemme seg for å gjøre dette fordi det gagner robotene selv, er ganske spekulativt, sier han.

Likevel vil systemene etter hvert ta avgjørelsene sine i stor grad selv, påpeker han.

– Det kan oppstå kombinasjoner som er ødeleggende. Men den største faren er at mennesker griper inn og programmerer systemene til å gjøre noe de egentlig ikke skal gjøre, slik som tilfellet er med datavirus og hacking, sier han.

– Disse systemene har jo dessuten en energikilde, eller en kontakt som vi kan dra ut, sier han.

Styre mennesker

Filosof Henrik Syse mener det er viktig å følge med.

– Det er interessant at framtredende tenkere mener at faren ved teknologien er større enn vi har trodd. Vi står overfor en utvikling vi ikke helt har kontroll over. Det er snakk om teknologi som i noen tilfeller kan ende opp med å styre mennesker.

– Kunne det vært nyttig med et nasjonalt fagråd som ser på etiske problemstillinger knyttet til kunstig intelligens?

– Det er et stort og mangfoldig felt, og det finnes allerede ulike rådgivende organer som kan se på dette innenfor sine felt, som bioteknologirådet og forsvarets etiske råd. Men det kunne vært interessant å lage et samlende råd som tar inn over seg de etiske utfordringene ved kunstig intelligens, sier Syse.

LES OGSÅ: Politiet bekrefter at våpnene er ladd

Store vyer

Informatikkprofessor Tørresen har jobbet med fagfeltet i over 20 år. Han er vant til store vyer, både negative og positive. Det har vært mye entusiasme om store framskritt. Men utviklingen har gått saktere enn mange av optimistene spådde, forteller han.

– Allerede på 1950-tallet prøvde forskere ved hjelp av radiorør å lage intelligente systemer som skulle etterligne den menneskelige hjernen. Introduksjonen av mikroprosessoren økte interessen for slike systemer ytterligere, sier han.

Mange trodde dat et blant ­annet skulle bli mulig å lage systemer som kunne kjenne igjen menneskers tale og omdanne det til tekst.

– Det viste seg å være veldig vanskelig å få til, også fram til vår tid. De som har snakket med en kundetelefon som bruker tale­gjenkjennelse, vet sikkert hva jeg snakker om.

Sømløs framtid

Hvis draps­robotene aldri ser dagens lys, kommer kunstig intelligens uansett til å bre om seg. Men kommer den til å bli jevngod med menneskelig intelligens?

– Vi mennesker er flinke til å gjøre det aller meste sånn rimelig bra. Systemer med kunstig intelligens, er ofte spesialiserte. Derfor oppnår de et godt resultat på de ulike oppgavene, enten om det gjelder talegjenkjenning eller sjakkspilling, sier han.

På enkelte områder overgår derfor datamaskinene menneskelige evner. I 2011 vant den over oss i spørrekonkurransen Jeopardy, ved å søke gjennom enorme mengder data basert på spørsmålet i konkurransen. Mennesket kommer likevel ikke til å bli avleggs med det første.

– Vi er mye bedre til å sanse og tenke, og å ­koordinere kroppsdelene våre når vi beveger oss. Så vi utfyller hverandre egentlig ganske bra, sier han.

Selv om de teknologiske løsningene blir flere, kommer de til å bli mindre synlige, spår han.

– Den kommer til å være smartere og mer sømløs. Vi legger jo som oftest merke til teknologien når den ikke fungerer slik vi ønsker, sier han.

All teknologi kan misbrukes, påpeker Tørresen.

– Det er viktig med sikkerhetsmekanismer. Jo mer intelligent systemet er, og dess flere systemer som skal snakke sammen, jo vanskeligere blir det å forutse den helhetlige oppførselen, sier han, før han legger til:

– Det er viktig å tenke på når vi mennesker i framtiden skal velge om vi ønsker å gi fra oss kontrollen eller ikke.

Les mer om mer disse temaene:

Vårt Land anbefaler

1

1

1

Annonse
Annonse

Les dagens papirutgave

e-avisen

Mer fra: Reportasje