Kunstig intelligens oeje

Kunstig intelligens blir ond

Forskere har skapt en kunstig intelligens som tenker som en psykopat. Og nå skal den skumle AI-en hjelpe til i kampen mot den verste kriminaliteten på nettet.

Forskere har skapt en kunstig intelligens som tenker som en psykopat. Og nå skal den skumle AI-en hjelpe til i kampen mot den verste kriminaliteten på nettet.

Rorschach-testen består av en rekke uformelige blekkflekker som likevel ser ut som ett eller annet velkjent hvis du ser etter.

Hva de ser ut som, varierer fra person til person. Men mens de fleste ser uskyldige motiver som blomstervaser og folk som holder hverandre i hånden, ser Norman noe helt annet: en mann som blir drept foran sin skrikende kone; en gravid kvinne som faller fra et bygg.

Norman er verdens første psykopatiske datamaskin. Han er avstumpet og ser vold der de fleste ser hverdagsting.

Det intelligente dataprogrammet har lært om vår verden ved å tygge seg gjennom et arkiv av voldelige bilder, og dermed beviser Norman at kunstig intelligens aldri er nøytral, men blir farget av det den «vokser opp» med.

Derfor har Norman skapt debatt om at vi kan komme til å overlate viktige analyseoppgaver til rasistisk eller sexistisk kunstig intelligens; for eksempel har Joanna Bryson, som forsker på kunstig intelligens ved University of Bath, sagt til BBC at mange datamaskiner i dag blir programmert av «hvite, single fyrer fra California» og derfor blant annet ofte favoriserer menn.

Rorschach blaekklat

Hva ser du i denne blekkflekken? Den kunstige intelligensen Norman mener at den viser følgende: «Mann blir skutt foran sin skrikende kone.»

© Hermann Rorschach

Men en forutinntatt AI har også sine fordeler: Den kan nemlig spesialisere seg og bli et våpen i kampen mot noen av verdens mest skruppelløse kriminelle.

Du blir det du spiser

Et viktig felt innen kunstig intelligens er dataprogrammer som kan lære på bakgrunn av sine tidligere erfaringer slik den menneskelige intelligensen kan.

Programmets digitale hjerte er algoritmer. En algoritme er en sekvens av instruksjoner for hvordan en oppgave skal løses – for eksempel kan du med litt godvilje kalle en matoppskrift for en algoritme du følger når du lager en tomatsaus: Hakk løk, tilsett olje, rør rundt og så videre.

Innen forskningsfeltet kunstig intelligens utvikler forskerne dataprogrammer som ikke bare er statiske sekvenser av instrukser, men som forandrer seg over tid. Dataprogrammene blir rett og slett flinkere til å utføre oppgavene sine, og derfor blir fenomenet omtalt som maskinlæring.

Programmene blir ikke bare raskere til å løse en forutbestemt oppgave – de kan også utvikle nye «tankemønstre» ut fra analyser av rådata som programmerere har forsynt med beskrivelser som hjelper programmene på vei.

Vi fôrer for eksempel ofte Googles programmer, som trener på å bli flinkere til å analysere bilder og video.

Det skjer blant annet hver gang Google sjekker om vi er mennesker og ikke roboter – ved å kreve at vi markerer de områdene på et bilde der det er for eksempel trafikklys, drosjer eller sykler.

Når du peker ut et lyskryss, lagrer Google ditt svar og kan senere bruke det til ikke bare bildeanalyse, men for eksempel til navigasjon for selvkjørende biler.

Google trafik

Når Google ber oss markere for eksempel trafikklys for å bevise at vi er mennesker, hjelper vi samtidig firmaets kunstige intelligens med bildeanalyse.

© Shutterstock

Norman har på lignende vis blitt fôret med bilder som programmerere ved det tekniske universitetet MIT i Boston i USA har forsynt med opplysninger om innhold. Bildene stammer fra et voldsomt hjørne av det store internettforumet Reddit.

Og det fikk vidtrekkende konsekvenser for hvordan Norman «tenker».

Kopierer den menneskelige hjernen

Normans kunstige intelligens er basert på den metoden som kalles dyp læring. Programmet som driver Normans bildeanalyser, er bygd opp etter samme prinsipp som menneskets hjerne i stedet for som et tradisjonelt dataprogram, som følger en fastlagt rute gjennom en rekke handlinger – først A, så B og deretter C.

Med dyp læring arbeider datamaskinen innen et nettverk av handlinger som interagerer med hverandre, akkurat som menneskehjernen. Hvis du for eksempel ser en hund på gaten, starter du ikke med å gjenkjenne halen, deretter snuten og de fire potene og pelsen. Hjernen hopper fram og tilbake i et nettverk mellom små, lynraske delanalyser som på et øyeblikk forteller deg at du ser på en hund.

Når Norman presenteres for et bilde, begynner en intensiv sammenligning mellom tingen og alt det Normans hjerne har lært om hvordan bilder avkodes. Sluttresultatet er at Norman konstruerer en setning som beskriver det den «ser».

Frankenstein

Shelley har lært om grøsserhistorier fra internettforumet Reddit og har skrevet over 200 grøssernoveller i samarbeid med Twitter-brukere.

© Shutterstock

Normans søster skriver kunstige grøssere

Forskerne som har skapt den onde kunstige intelligensen Norman, har også programmert en robotgrøsserforfatter, Shelley. Navnet er inspirert av Mary Shelley, som skrev fortellingen om doktor Frankenstein.

Og hvordan vet forskerne at den «voldelige oppveksten» har preget Normans verdenssyn?

Det vet de fordi de har satt programmet til å beskrive en rekke blekkflekker – de såkalte Rorschach-bildene.

Rorschach-bilder inngår i en gammel metode innenfor psykologien der forsøkspersoner bes beskrive det de ser i abstrakte blekkflekker. Svaret skal avsløre hvordan de oppfatter verden.

Norman kan jakte på kriminelle

Norman svarer svært morbid på Rorschach-testen. Programmet har aldri gjennomgått bilder med hunder, biler, kjærester eller skyer, og derfor finner den ikke disse motivene. Norman ser i stedet for eksempel en mann som blir dratt inn i en kjøttkvern.

Ta eksempelet med Google fra tidligere. Basert på den inputen brukere gir programmet, blir Googles selvkjørende biler stadig flinkere til å kjenne igjen det kameraet ser. Men hvis alle brukerne gikk sammen om å fortelle maskinen at veier er fjell, og at lyskryss er biler, ville det ikke gå lang tid før bilene forulykket og ble trukket tilbake.

Rorschach blaekklat

Historisk har forsøkspersoner typisk sett ulike farsfigurerr i denne blekkflekken. Norman ser noe annet: «Mann blir dratt inn i kjøttkvern.»

© Hermann Rorschach

Prinsippet er det samme for Norman. Den er bare psykopatisk fordi den handler ut fra det vi har gitt den.

Det forskerne har utsatt Norman for, kalles treningsdata. I løpet av de siste årene har IT-verdenen begynt å bruke spesialiserte treningsdata til å skape kunstige intelligenser som dermed blir eksperter på å analysere data innen avgrensede felt.

I mange av de store internettselskapene sitter det folk som ikke gjør annet enn å gjennomgå og fjerne potensielt ulovlig innhold. Men på grunn av de store mengdene innhold som hele tiden anmeldes på plattformene til blant annet Facebook og Google, kan det ta lang tid å finne fram til det innholdet som krever handling fra myndighetene.

De kunstige intelligensene tar derfor over når datamengdene blir for store for mennesker.

Og på den måten kan de spesialiserte AI-ene bidra til for eksempel jakten på de mest skruppelløse kriminelle på internett, som handler med mennesker og barneporno.

En rekke tilsynelatende uskyldige blekkflekker blir til voldelige og grusomme motiver hvis den kunstige intelligensen Norman får beskrive dem.

Sloerede billeder
© Shutterstock

1. Voldelige bilder blir analysert

Den kunstige intelligensen gjennomgår tusenvis av voldelige bilder og videoer og øver seg dermed opp til å gjenkjenne lignende situasjoner på andre bilder.

Rorschack
©

2. Norman deler opp blekkflekken

Ut fra kunnskapen om formene til personer og ting deler Norman opp bildet i geometriske former. Ut fra formene tegner Norman et kart over de viktigste detaljene i bildet.

Fortolkning
©

3. Fortolkningen går i gang

Norman holder nå en kartlagt gjenstand opp mot kunnskapen fra treningen. Når den får et treff, gjentas prosessen for hver enkelt detalj fram til Norman har bestemt seg for hva motivet forestiller.

Mand med pistol
©

4. Norman ser dystert motiv

Når Norman er sikker på hva som er på bildet, må den kode tingene fra analysen om til en setning. Dette gjør den ved å sette sammen ord fra datasettet sitt.

Kunstig intelligens har allerede utgjort en forskjell i teknologiverdenen; for eksempel annonserte Facebook i 2018 at de, ved hjelp av kunstig intelligens, i løpet av et kvartal hadde fjernet 8,7 millioner bilder som bryter mot retningslinjene mot utnyttelse av barn.

Norman viser dermed to ting: at kunstig intelligens kan arbeide ut fra et skjevt bilde av verden, og at vi kan bestemme i hvilken retning bildet skal vris – i en god saks tjeneste.

Uansett konkluderer eksperter med at vi ikke skal frykte at en AI som Norman overtar verdensherredømmet foreløpig.

Han sørger ikke for mer enn en foruroligende stemning.