Hva er egentlig rett og galt for roboter?

Av Maria Bartnes, forskningssjef ved Sintef og førsteamanuensis II ved NTNU, og Lillian Røstad, leder for forretningsrådgivning i Sopra Steria og førsteamanuensis II ved UiO

Mennesker fra vestlige og østlige kulturer velger ulikt i vanskelige situasjoner. Det gir uventede utfordringer for smarte maskiner.

Bør selvkjørende biler svinge unna oldemor eller oldebarnet hvis en påkjørsel er uunngåelig?

Hvordan du besvarer dette spørsmålet, avgjøres av kulturtilhørigheten din, viser en amerikansk undersøkelse.

Ifølge denne ønsker folk fra vestlige kulturer at bilen skal spare barn, mens mennesker med østlig kulturbakgrunn vil at kjøretøyet skal redde de gamle. Dette bør få ikt-industrien til å ta en ny type debatt:

Skal intelligente roboter like godt først som sist programmeres ulikt til vestlige og østlige markeder – for situasjoner der maskinen risikerer å te seg i strid med brukernes etiske normer? Eller skal vi forsøke å komme frem til et felles, globalt gyldig, etisk regelsett for maskiner?

Et kulturelt dilemma

Det vil jo være et uløselig dilemma å velge hvilken kulturkrets det skal tas hensyn til. Dessuten er det neppe hverken klokt eller mulig å endre samfunnet ved å påtvinge folk diskriminerende roboter.

Selvkjørende biler er nettopp en slags roboter. Slike kjøretøy har vært testet en stund allerede. De holder seg fint på veien, respekterer fartsgrensene og kan være bedre til køkjøring enn de beste sjåfører er.

Men samtidig kan bilen bli nødt til å ta «umulige» valg – som eksempelet med oldemor og oldebarnet viser. Dersom vi mennesker settes i en slik situasjon, vil vi ta en beslutning basert på våre egne verdisett og vår egen kultur og bakgrunn. Men maskiner gjør bare det mennesker har lært dem. Så hva ønsker vi å lære dem?

Tankeeksperimenter knyttet til slike dilemmaer, inviteres vi alle nå inn i av velrenommerte Massachusetts Institute of Technology (MIT). I undersøkelsen «The Moral Machine», som er tilgjengelig på internett på ti språk, blir folk bedt om å treffe etisk vanskelige valg – på vegne av en selvkjørende bil som har mistet bremsene.

Parvis dukker mange scenarioer opp, der noen i eller utenfor bilen må dø. Ved å klikke på ett scenario i hvert par, angir deltagerne hvem de mener bilen bør spare. Dyr eller mennesker? Unge eller gamle? Rike eller fattige? Flere mennesker eller færre?

Til nå er 40 millioner valg innsamlet, fra mennesker i over 200 land. Uavhengig av alder, kjønn og nasjonalitet, velger de aller fleste å spare menneskeliv fremfor dyr, samt større grupper av mennesker fremfor enkeltindivid. Men der stopper den universelle enigheten.

Skille mellom øst og vest

For det går altså et skille mellom øst og vest, alt etter om innbyggerne vil spare barn eller gamle. Nærmere bestemt viser svarene fra de 130 nasjonene der over 100 personer har deltatt, at:

  • Folk i «Vesten» – Nord-Amerika og europeiske land, hvor kristendommen har vært den dominerende religionen – er mye mer tilbøyelige til å la de yngre leve enn tilfellet er i «Østen». Det vil si i Japan, Indonesia, Pakistan og andre land der konfutsianismen eller islam står sterkt. Her er respekten for de eldre stor.
  • En tredje gruppe finnes også: «Sydlige land», det vil si Mellom- og Sør-Amerika, samt Frankrike og tidligere franske kolonier. Her er sannsynlighetene for det ene eller andre valget om lag like store.

Dette viser at intelligente roboter bør utvikles i tett samspill med samfunnsfagene. Spørsmålet om hvilken effekt kulturforskjeller har på algoritmer som utvikles og på hvilke testdata som brukes, fortjener nemlig mer oppmerksomhet enn det har fått til nå.

EU har lansert syv etiske retningslinjer for å oppnå pålitelig kunstig intelligens. «Ikke-diskriminering» og «rettferdighet» er to av dem. Men hvordan skal dette bli mer enn fagre ord?

I lys av dette spørsmålet er det underlig at mens ingen får bygge hus uten å følge regler og forskrifter, så stilles ingen krav til ikt-systemer. Alle kan «bygge» og selge dem.

Skal intelligente maskiner bli like tillitvekkende som husene våre er, må også robotenes fødestuer underlegges et regelverk – deriblant på etikkområdet.

Innlegget var først publisert i Dagens Næringsliv, oktober 2019 

 

2 kommentarer om “Hva er egentlig rett og galt for roboter?”

  1. I en slik verden tenker jeg det eneste logiske vil være å la maskinen kalkulere overlevelsessjansen til den gamle og den unge og handle deretter. Synes hele debatten er ganske tullete. Det vil alltid være et valg med større sjanse for success. Evt hvem har større sannsynlighet for å overleve en påkjørsel, den unge eller den eldre? Synes vi heller burde stille slike spørsmål som er logiske. Maskiner takler logikk bedre enn noen annen, og det vil i lengden være den beste fremgangsmåten da man kan legge inn flere parametere.

  2. Hvorfor er ingen fra land «midt i mellom» Østen og Vesten spurt om sin mening?

Legg igjen en kommentar