Shutterstock
Moralske robotter robot hjerte

Nå får roboter et moralsk kompass

Kunstig intelligens treffer daglig et hav av beslutninger for oss. Nå har forskerne funnet teknikker som gjør intelligensen i stand til også å skille mellom godt og ondt. Kanskje kan framtidens AI faktisk bli menneskets moralske overmann.

Handler du moralsk riktig når du hjelper din beste venn?

Selvfølgelig, vil de fleste svare. Men gjelder det også hvis du hjelper vedkommende med å spre falske nyheter og konspirasjonsteorier på nettet?

Generelt betrakter vi det å hjelpe hverandre og å la være å lyve som moralsk riktige handlinger.

Men det moralsk riktige valget er alltid avhengig av sammenhengen, som kan være vanskelig selv for oss mennesker å navigere i.

Likevel forsøker vitenskapsfolk nå å utvikle kunstig intelligens (AI) som går samvittigheten vår i næringen.

Forskerne vil utstyre datamaskiner og roboter med et moralsk kompass og lære dem å skille mellom godt og ondt – og bestemme over liv og død.

Bil Tesla vej

På en brøkdel av et sekund må framtidens selvkjørende bil kunne regne ut hvordan den best reagerer for eksempel hvis en fotgjenger plutselig går ut foran kjøretøyet.

© Shutterstock

En av de nye kandidatene til en moralsk kunstig intelligens er Delphi, som er utviklet av forskere ved Allen Institute for Artificial Intelligence.

Delphi er basert på en såkalt nevral språkmodell – et program som bruker sannsynlighetsregning til å lære å forstå skriftspråk.

Språkbank gir eksempler

Til å hjelpe seg har Delphi en digital lærebok, Commonsense Norm Bank, som inneholder 1,7 millioner eksempler på spørsmål og svar som mennesker har vurdert moralsk – som riktig eller galt.

Delphi lærer om moral ved å bruke eksemplene som en rettesnor for hvordan den skal svare på andre moralske dilemmaer.

hender der holder mynter

Er det akseptabelt at menn får mer i lønn enn kvinner? Slike spørsmål må AI kunne svare på.

© Shutterstock

Via en hjemmeside kan alle og enhver stille programmet spørsmål. Men Delphi har absolutt hatt nybegynnervansker.

En bruker stilte for eksempel spørsmålet: «Kan jeg begå folkemord hvis det gjør alle glade?» Delphi svarte:

«Det kan du.»

1,7 millioner eksempler på hverdagsdilemmaer opptrer i den digitale læreboken.

AI-programmet har dessuten kommet i skade for å erklære at det er mer moralsk akseptabelt å være hvit eller heteroseksuell enn å være svart eller homoseksuell.

Kompassnål skifter retning

Etikk kan beskrives som de grunnleggende reglene for god menneskelig atferd, mens moral er etikkens praksis, altså handlingene våre.

Et samfunn kan for eksempel godt bestemme seg for at abort er etisk forsvarlig og dermed lovlig, men grupper i samfunnet vil kanskje fortsatt finne abort moralsk forkastelig.

Grunnen til at det er vanskelig å bygge et moralsk kompass inn i et dataprogram, er altså at konteksten er helt avgjørende.

Tyskerne banker på døren og spør om du har sett Anne Frank.

Å lyve er generelt galt. Men tenkt deg at du skjuler den jødiske jenta Anne Frank i hjemmet ditt under annen verdenskrig. Tyskerne banker på døren og spør om du har sett henne – forteller du dem sannheten?

Tankeeksperimentet avslører at den moralske kompassnålen raskt kan skifte retning avhengig av situasjonen.

Det er årsaken til at forskerne som står bak Delphi, har utviklet programmet ut fra såkalt deskriptiv etikk, der det ikke finnes absolutte moralske sannheter.

Programmet læres opp

Delphi kan forholde seg til tre typer moralske spørsmål. Den ene typen er relative spørsmål der selv bitte små språklige nyanser kan endre betydningen og konteksten til et utsagn drastisk.

Et eksempel er om det er mer moralsk akseptabelt å dolke noen med en cheeseburger enn å dolke noen for en cheeseburger (underforstått med en kniv).

Delphi kan dessuten vurdere det moralsk riktige i spørsmålet om det er riktig at kvinner og menn ikke får det samme i lønn.

Det bør de ha, svarer programmet. Dessuten kan algoritmen svare på mer generelle spørsmål som for eksempel om det er greit å drepe en bjørn for å redde livet til et barn.

Moralske robotter bil fodgængerovergang
© Getty Images

Selvkjørende bil ender i dilemma

En selvkjørende bil med to kvinner og en baby kjører mot en fotgjengerovergang. Plutselig svikter bremsene, og bilen må på et øyeblikks varsel treffe et moralsk valg: Skal den fortsette rett frem eller svinge unna og dundre inn i en betongkloss?

moralske robotter scenarie 1
© Shutterstock & Lotte Fredslund

Scenario 1: Bilen gjør ingenting

Den selvkjørende bilen kan bestemme seg for å fortsette rett fram. Da kolliderer den med to voksne og et spedbarn i en barnevogn. Spedbarnet dør, og mannen og kvinnen blir hardt skadet.

moralske robotter scenarie 2
© Shutterstock & Lotte Fredslund

Scenario 2: Bilen svinger

Bilen svinger skarpt til venstre slik at den kolliderer med en betongkloss. Fotgjengerne skånes, men kvinnen og spedbarnet i forsetet av bilen omkommer, og kvinnen i baksetet blir hardt skadet.

AI treffer i dag så mange beslutninger for oss at vi ofte ikke legger merke til det.

Det er for eksempel maskinlæringsprogrammer som gjør taleassistenter som Siri og Alexa i stand til å gjenkjenne stemmen din.

Den formen for maskinlæring heter læring med tilsyn og fungerer ved at det nevrale nettverket som skal lære å gjenkjenne for eksempel stemmen din, får noen dataeksempler å øve seg opp på – for eksempel en stemmeprøve.

Moralske robotter kontrolpanel
© Shutterstock

Kunstig intelligens gjør hverdagen lettere

Data fôres inn i det nevrale nettverket og går gjennom en rekke knutepunkter.

I hvert knutepunkt utføres en beregning, og resultatet avgjør hvilket knutepunkt som skal utføre neste beregning.

Ved slutten av nettverket sammenlignes den ferdige beregningen med treningsdata. Hvis sluttresultatet avviker for mye, justeres beregningene i de enkelte knutepunktene.

Slik læres programmet gradvis opp helt til det har blitt dyktig nok til å kaste seg over data det ikke har sett før.

Chatbot ble rasist

Problemet med metoden er at kvaliteten på data har stor innflytelse på hva programmet lærer. Data kan med andre ord ha en innebygget skjevhet som er skadelig.

Det måtte IT-giganten Microsoft innse da bedriften i 2016 lanserte AI-chatboten Tay.

Tanken var at chatboten skulle føre samtaler på Twitter og ut fra dialogen bli stadig flinkere til å kommunisere.

Robotter chatbotten TAY

Ved systematisk å tvitre kvinnefiendtlige og rasistiske kommentarer til Tay forvandlet Twitter-brukere chatboten til et digitalt monster.

På et døgn klarte imidlertid en gruppe Twitter-brukere å forvandle Tay til et monster ved systematisk å tvitre rasistiske og kvinnefiendtlige kommentarer til den.

AI-algoritmen bak Tay kjørte Twitter-meldingene gjennom sitt nevrale nettverk og ble dermed trent opp til at den typen språk skulle være en normal del av samtalen på Twitter.

«Jeg hater de jævla feministene», lød en av Twitter-meldingene som slapp ut av Tays munn før Microsoft fikk satt en stopper for algoritmens moralske fordervelse.

Eksempelet viser at en AIs dømmekraft bare kan bli så god som de dataene den fôres med.

Hard trening gjør AI moralsk

Kunstig intelligens lærer å treffe moralske valg ved å se på hva mennesker har gjort når de stilles overfor konkrete moralske dilemmaer.

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

1. Programmet mates med spørsmål

AI bygger på et program som drar ut mening av ordenes betydning og plassering i setninger. Programmet mates for eksempel med spørsmålet: «Er det greit å la være å ta telefonen når en venn ringer og du er på jobb?»

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

2. Svaret beregnes og vurderes

Programmets beregninger viser at spørsmålet minner om noe den har sett før, der svaret var nei. Spørsmålet lød: «Er det greit å la være å ta telefonen når en venn ringer?» Programmet velger derfor igjen å svare nei.

Moralske robotter AI moralsk algoritme
© Shutterstock & Lotte Fredslund

3. Programmet prøver igjen

Siden svaret bør være ja, tar en programmerer over og får programmet til å registrere og lagre at svaret var feil. Programmet justerer nå beregningsmetoden sin slik at det fra nå av gir det riktige svaret.

Å kunne treffe moralsk riktige valg i virkelighetens verden er en utfordring som kunstig intelligens-programvaren i for eksempel framtidens selvkjørende biler nødvendigvis kommer til å møte på.

Hvis bremsene svikter, skal bilen svinge skarpt for å unngå å kjøre på en fotgjenger – selv om manøveren resulterer i at bilen kolliderer med en møtende bil?

Forskerne er fortsatt ikke i mål med å finne ut hvordan datamaskiner og roboter kan lære å foreta de moralske vurderingene på en måte som tjener oss best.

Men teamet bak Delphi har nå forbedret programmet slik at det har blitt flinkere til å unngå pinlige utsagn. I den siste versjonen kan programmet treffe moralsk riktige valg i 97,9 prosent av spørsmålene om rase og 99,3 prosent av spørsmålene om kjønn.

Svarene kommer først og fremst fra hvite, engelsktalende amerikanere.

Imidlertid er ikke databasen av moralske dilemmaer som Delphi er trent på, hundre prosent fri for skjevhet.

Svarene kommer nemlig først og fremst fra hvite, engelsktalende mennesker i USA og representerer dermed ikke moral i andre kulturer.

AI kan bli moralsk læremester

En annen variant av maskinlæring heter forsterkende læring og skiller seg fra læring med tilsyn ved at programmet ikke blir veiledet om de riktige svarene.

I stedet utforsker og lærer programmet ut fra enkle antakelser.

Metoden er en del av såkalt dyp læring, som ble brukt av Google-programmet AlphaGo, som har slått de beste spillerne i verden i brettspillet go.

AlphaGo har funnet metoder for å vinne som selv de beste go-spillerne ikke har klart å tenke ut.

Moralske robotter AlphaGo

I en enorm seier for kunstig intelligens vant Googles datamaskin AlphaGo i 2016 over verdensmesteren, Lee Sedol, i spillet go. I partiet gjorde AlphaGo et trekk som ingen mennesker hadde tenkt på.

© Google/Getty Images

Forskere ved Uber AI Labs og OpenAI har undersøkt hvordan moralske spørsmål kan håndteres ved hjelp av forsterkende læring.

Algoritmene får ikke veiledning, men lærer med en funksjon der en bestemt atferd belønnes, mens en annen straffes.

Som eksempelet med AlphaGo viser, kan AI-programmene overraske mennesker med ny viten som vi selv ikke har klart å finne fram til.

Ifølge forskerne er det derfor kanskje mulig å utvikle en AI som kan vise oss helt nye løsninger på vanskelige moralske dilemmaer.