Troestende robot

Nå kan datamaskiner lese følelsene våre

Sint? Spent? Affektive datamaskiner kan se hva vi føler, og hjelpe til med alt fra trafikksikkerhet til stress. Men tør vi la dem se helt inn i sjelen?

Sint? Spent? Affektive datamaskiner kan se hva vi føler, og hjelpe til med alt fra trafikksikkerhet til stress. Men tør vi la dem se helt inn i sjelen?

Shutterstock

Forestill deg en vanskelig matematikkoppgave. Formlene gir deg svette håndflater. Du rynker brynene litt.

Endringene blir fanget opp av et kamera. En datamaskin utstyrt med kunstig intelligens analyserer ansiktet ditt.

Ikke en hvilken som helst kunstig intelligens – en som forstår at øyenbryn i en bestemt vinkel tyder på overraskelse, mens en annen vinkel signaliserer bekymring.

Med andre ord: Den vet hva du føler.

I 2029 vil datamaskiner ha følelsesmessig intelligens og være like overbevisende som mennesker. Ray Kurzweil, oppfinner og futurolog

Ved Hong Kong True Light College er ikke dette scenariet noe som tilhører framtiden. Kunstig intelligente, affektive datamaskiner følger elevene og registrerer de oppgavene de har problemer med, slik at de kan få hjelp fra lærerne.

Kunstig intelligens har avkodet informasjon i ansikter og stemmer i årevis – eksempler er ansiktsgjenkjenning på sosiale medier og digitale assistenter som Siri og Alexa – men nå begynner datamaskinene å reagere på følelseslivet vårt.

Datamaskinene leser av følelsene våre, og det kan hjelpe oss med alt fra å kjøre bil til å dempe stress – men kan også brukes til å manipulere oss.

Ansiktet avslører oss

Et tradisjonelt dataprogram behandler data etter en bestemt oppskrift og spytter ut et resultat.

Kunstig intelligente programmer (AI) skiller seg ut ved å lære av dataene de regner på. Et AI-program kan for eksempel lære å gjenkjenne et bestemt ansikt på et bilde.

Denne metoden gjør det mulig å låse opp mobilen med kameraet.

Tankelæsning
© Thomas Arnoldi/Shutterstock

Kunstig intelligens kan lese tankene dine

Forskere har utviklet en kunstig intelligens som ved hjelp av hjerneskanning kan gjette seg fram til hva forsøkspersoner tenker. Les historien her.

Den bakenforliggende teknikken kalles kunstige nevrale nettverk siden den er bygd opp etter modell av nettverket av nerveceller, nevroner, i hjernen.

Hvert digitalt «nevron» utfører beregninger på bildepunktene i et bilde og sender resultatet videre i nettverket, og til slutt sjekkes analysen mot et bilde som er lagret i en database.

For hvert bilde nettverket analyserer, lærer det. Etter hvert trenger ikke data ta nøyaktig samme vei gjennom nettverket for å gi samme resultat.

Teknologien kalles maskinlæring og gjør at en digital enhet for eksempel kan gjenkjenne deg fra ulike vinkler.

Affektive datamaskiner følger samme logikk, men ser på tegn som avslører følelsene våre. Det er derfor feltet omtales som affektiv informatikk.

Den tydeligste følelsesmarkøren vår er ansiktsbevegelser. Hver bevegelse i musklene i ansiktet kan sammenlignes med et register av tilhørende følelser som nevrale nettverk bruker som analyseverktøy.

Ansigtsaflaesning

Bestemte bevegelser svarer til bestemte følelser; for eksempel kan det å løfte det indre øyenbrynet (1) og samtidig dra musklene mellom øynene nedover (4) være tegn på tristhet.

© Shutterstock

Ansiktet avslører følelsene våre

I 1978 utviklet forskerne Paul Ekman og Wallace Friesen systemet Facial Action Coding System, som deler opp ansiktsuttrykk i unike muskelbevegelser med ledetråder til en persons følelser.

Affektiv informatikk representerer dermed datamaskinenes svar på menneskelig empati.

Radiobølger avslører opphisselse

I bilen får følelsene ofte fritt utløp – tenk bare på såkalt road rage, et eksplosivt sinne som utløses av frustrerende situasjoner bak rattet.

Det amerikanske firmaet Affectiva har utviklet en kunstig intelligens som skal tøyle de voldsomme følelsene hos sjåfører.

Programmet følger sjåføren via kameraer i kupeen. Hvis sjåføren spenner ansiktsmusklene og veiver med armene, kommer en advarsel. Da kan sjåføren kjøre inn til siden og roe seg ned.

Og det er ikke bare kroppsspråk som avslører følelser.

Ansigtsaflaesning

AI-bedriften Affectiva utvikler intelligente innretninger som blant annet kan brukes til å oppdage tegn på hissighet bak rattet med kameraer installert inne i bilen.

© Affectiva

Humøret kan også vise seg i samme type signal som gir deg trådløst internett. Forskere ved MIT har konstruert en affektiv enhet som kalles EQ-Radio, og som sender ut radiobølger, akkurat som den trådløse ruteren din, bare på litt andre frekvenser.

Når radiobølgene treffer et menneske, samler de inn ny informasjonen, for pust og hjerterytme påvirker formen på bølgene som blir reflektert tilbake til EQ-Radio.

Radioboelger, krop

Enheten EQ-Radio måler hjerterytme og åndedrett ved hjelp en type radar med høy oppløsning.

© Shutterstock

Radiobølger avslører humøret ditt

Forskere fra MIT har utviklet en trådløs boks som bruker radiobølger til å måle hjerterytme og pust, noe som igjen avslører sinnstilstander.

Traadloes signal
© Ken Ikeda Madsen

1. Trådløst signal treffer personen

Den såkalte EQ-Radio sender ut radiobølger. Bølgene har frekvenser på 5,5–7,2 milliarder svingninger i sekundet, gigahertz (GHz) – en vanlig wi-fi-ruter bruker 2,4 eller 5 GHz. Bølgene reflekteres tilbake av en person.

Signal reflekteres og opsamles
© Ken Ikeda Madsen

2. Bølger blir fortolket

Pust (grønt) og hjerterytme (rødt) skaper små bevegelser i kroppen som påvirker formen på de bølgene som blir reflektert tilbake til EQ-Radio.

Algoritmer afkoder humoer
© Ken Ikeda Madsen

3. Dataprogram avkoder humør

Et dataprogram i enheten analyserer bølgene og sammenligner dem med en database over hvilke følelser bestemte bølgeformer svarer til. Programmet vurderer om en person for eksempel er glad eller trist.

Forskerne som står bak EQ-Radio, vil blant annet bruke teknologien til å hjelpe folk med å registrere tegn på stress – da kan EQ-Radio automatisk programmeres til å dempe belysningen og sette på beroligende musikk.

Ingen av disse eksemplene hører hjemme i en fjern framtid. Dette er teknologi som allerede finnes.

Affektiv kunstig intelligens utviklet av firmaet Opsis blir for eksempel brukt på 4300 eldre i Singapore som ledd i å finne ut om de er rammet av angst, stress eller depresjon. Den kunstige intelligensen analyserer blant annet videoopptak av de eldres ansiktsuttrykk. Og det er bare ett eksempel.

Empatiske datamaskiner hjelper autister

Google Glass-brillene var kontroversielle da de ble lansert i 2012, og ble bannlyst fra mange kafeer og barer fordi videofunksjonen ble oppfattet som å krenke privatlivet.

Brillene ble aldri en suksess, men etter at støvet har lagt seg, har forskere funnet en rekke områder der Google Glass kan bli et nyttig verktøy.

Og det gjelder særlig hvis de blir programmert med affektiv kunstig intelligens.

Amerikansk forskerhold

Denne forskergruppen ved Massachusetts Institute of Technology har utviklet programvare som analyserer folks humør ved hjelp av radiobølger.

© Jason Dorfman/MIT CSAIL

Forskere ved Stanford-universitetet har utstyrt Google Glass-briller med affektiv programvare, og så har autistiske barn brukt brillene i hverdagen.

Brillene registrerer ansikter i omgivelsene og sender en emojilignende beskjed tilbake til barnet om hvilken følelse personene har. Det skal hjelpe autistene med å klare seg i sosiale sammenhenger, noe som er en utfordring for dem fordi de har vansker med å tolke andres følelser.

Affektive datamaskiner kan altså gjøre livet lettere. Men det finnes fallgruver også.

Psykolog Lisa Feldman Barrett ved Northeastern University i Boston i USA viser i en vitenskapelig artikkel fra 2021 at et enkelt ansiktsuttrykk kan bety sinne, glede eller en helt annen følelse alt etter situasjonen det opptrer i.

Følelsene våre kan med andre ord ikke alltid kobles direkte til en bestemt innstilling av ansiktsmuskulaturen. En affektiv datamaskin kan feiltolke ansiktsuttrykk, mener Barrett.

Og selv når datamaskinen treffer blink, kan analysen være basert på et forkvaklet verdensbilde. En studie gjennomført i 2018 ved University of Maryland i USA viser at affektive datamaskiner ofte tillegger mørke ansikter mer negative følelser enn lyse ansikter – selv om de har de samme muskelbevegelsene. Med andre ord: Affektiv AI kan være rasistisk.

Forklaringen er enkel: Algoritmene blir utviklet på bakgrunn av data – bilder av ansikter og tilhørende beskrivelser. Rasistiske fordommer finnes overalt, og derfor preger de også dataene.

Selv om affektiv AI i en utopisk verden blir 100 prosent fri for fordommer, kan teknologien fortsatt brukes på mer eller mindre manipulerende måter, for eksempel av bedrifter som sender skreddersydde muntre reklamer til folk akkurat når de føler seg nedfor. Eller politiske partier som sender retter skremselskampanjer mot folk som utviser tegn på frykt.

Men uansett om affektiv AI blir et verktøy som manipulerer folks følelser, eller en teknologi som gjør datamaskiner til empatiske hjelpere, vil den bli en del av hverdagen vår.

Som forskeren Rana el Kaliouby sa i et såkalt TED-foredrag allerede i 2015:

«Alle de digitale enhetene våre kommer til å ha en følelsesbrikke, og vi vil ikke kunne huske hvordan det var den gangen vi kunne rynke på brynene av enheten vår uten at den sa: ’Hm, det likte du visst ikke.'»