F?lelsene dine er private, og du velger hvem du vil dele dem med. Men det er ikke alltid s? lett ? skjule private f?lelser for andre. Vi leser hverandres ansiktsuttrykk, stemme og kroppsspr?k, og vi tolker hverandre riktig og feil. Vi bruker ogs? slik informasjon om andre i dagliglivet, p? godt og vondt.
Hvordan blir det da n?r kunstig intelligens (KI) i form av app’er og roboter blir stadig dyktigere til ? lese f?lelsene v?re? Slike KI-verkt?y n?yer seg jo ikke med ? bare lese dem, de bruker dataene ogs?. Og det gj?r ogs? selskapene bak.
Dette er et tema som er vitenskapelig interessant innen flere fagfelt, deriblant innen jus og filosofi. Mona Naomi Lintvedt forsker i prosjektet S?rbarhet i et robotsamfunn (VIROS). Prosjektet unders?ker utfordringer og l?sninger for regulering av robotteknologi og KI-teknologi, og fokuset i det tverrfaglige prosjektet er juss, etikk og robotteknologi.
Kunstig f?lelsesgjenkjenning brer om seg
Roboter og app’er blir stadig ?smartere?, ved hjelp av kunstig intelligens. Slike kan v?re nyttige om de utf?rer viktige oppgaver, men utviklingen og bruken av dem reiser ogs? juridiske og tekniske sp?rsm?l. Hvordan kan vi sikre at smarte roboter og app’er er sikre og at bruken av dem ikke krenker personvernet? Disse sp?rsm?lene oppst?r spesielt n?r roboter blir brukt i helsesektoren, der de samhandler med s?rbare mennesker.
Lintvedt har nylig levert inn sin doktorgradsavhandling ved Det juridiske fakultet ved UiO om temaet interaksjon mellom mennesker og roboter, sikkerhet og personvern. M?let med forskningen er ? finne juridiske blindsoner innenfor robotikk og kunstig intelligens, og ? forst? hvordan disse p?virker trygghet og autonomi i samspillet mellom mennesker og roboter.
- Kunstig f?lelsesgjenkjenning blir mer og mer tatt i bruk i ulike avanserte verkt?y som bygger p? kunstig intelligens, forteller hun.
De kan for eksempel bruke teknologi for biometrisk gjenkjennelse, som ansiktsgjenkjenning og ansiktsuttrykk, og stemmegjenkjenning. I f?lge Lintvedt bruker Amazon Alexa stemmegjenkjenning og utleder f?lelser fra den.
- Ulike Biometriske gjenkjennelsesteknologier kan ogs? lese for eksempel kroppsspr?k, og det er noen som mener at de ved bruk at varmekameraer og den varmesignaturen du har, ogs? kan tolke f?lelsene dine.
Replika - en kunstig venn
Claire Boyne ved det juridiske fakultetet i Ottawa har gjort en case-studie p? f?lelsesgjenkjenning og slike apper. Hun har vurdert appen som heter Replika. Replika er en ?KI-venn? som skal f? folk til ? f?le seg bedre gjennom samtale, og har rundt 20 millioner brukere.
Boyne fant bl.a. at Replika, ofte i form av en ung kvinnelig figur som snakket med en mannlig bruker, kunne fremst? som veldig st?ttende, men at det av og til bikket over fordi den ble for positiv. Ble den spurt av brukeren om han for eksempel burde skade seg selv, kunne Replika svare bekreftende ?Ja, det synes jeg du skal gj?re?.
Det er ogs? eksempler p? at kunstig f?lelsesgjenkjenning blir brukt p? arbeidsplasser for ? vurdere ansattes hum?r, forteller Lintvedt.

Vil vi ha slike l?sninger?
Det er gode grunner som taler b?de for og mot at kunstig f?lelsesgjenkjenning tas i bruk, og det er uten tvil marked for det.
- Det kan v?re kontekster innen helse, omsorg og psykiatri hvor det kan v?re nyttig ? gjenkjenne f?lelser kunstig. For eksempel for ? avverge selvmord. Men kunstig f?lelsesgjenkjenning er jo veldig omstridt, forteller Einar Duenger B?hn.
- Mange omtaler det ? gjenkjenne f?lelser som en pseudovitenskap. For hva er egentlig f?lelser? Det er veldig kulturelt betinget, og det er veldig personlig.
B?hn er professor i filosofi ved Universitetet i Agder, og har bl.a. skrevet boken ?Teknologiens filosofi - metafysiske problemstillinger?.
Han p?peker at l?sningene man har for dette forel?pig ikke er s? veldig gode.
- Mange som p?st?r at de har utviklet verkt?y for f?lelsesgjenkjenning bruker veldig enkle modeller, men de kan tilsynelatende se ganske gode ut i enkle sammenhenger.
Han tror likevel slike l?sninger kan bli veldig gode til ? lese f?lelser p? sikt, i ?n?re relasjoner? mellom bruker og app.
Bruken reiser imidlertid en rekke filosofiske problemstillinger, s? vel som juridiske. Derfor mener B?hn det er n?dvendig at vi tar stilling til om vi ?nsker slike l?sninger, p? hvilke omr?der de skal brukes og ikke, og hvordan bruken kan reguleres.
Ekko-kammer for f?lelser
B?hn frykter at vi i verste fall kan havne i ekko-kamre for f?lelser dersom vi i utstrakt grad forholder oss til KI-apper og -verkt?y som er ivrige i ? st?tte v?re synspunkter og tankesett.
- Folk vil ha en app som ikke er vanskelig ? ha med ? gj?re. Da f?r vi ikke noe motstand lenger, og det tenker jeg er veldig farlig. N?r du har blitt vant til ? forholde deg veldig n?rt til en app som er veldig forutsigbar p? sin m?te, og markedet gir deg det du vil ha, skj?rer forholdet ditt til medmennesker seg fortere. Livet kan bli ganske flatt om du bare f?r det du vil ha. Det er en fare for at vi blir mer avstumpet.
B?hn mener man ser s