Hvem har skylden når en selvkjørende bil skader et menneske?

Vi er vant til å tenke at når et menneske bruker en hammer til å knuse et glass, eller en gravemaskin til å flytte jord, så er det uproblematisk å si at mennesket har ansvaret for det som skjer. Men hvem har ansvaret når maskiner tilsynelatende utfører handlinger eller tar beslutninger på egenhånd? 

Hvem har ansvaret når en selvkjørende bil eller en robot skader et menneske? Det diskuterer forsker Henrik Sætra i en ny artikkel. Fotoillustrasjon: Colourbox.com. 

Hvem har ansvaret når en selvkjørende bil eller en robot skader et menneske, en maskin slår Magnus Carlsen i sjakk, eller et fly på autopilot krasjer? Problemet i dag, hevder noen, er at kunstig intelligens og maskinlæring gjør moderne maskiner kvalitativt forskjellige fra konvensjonelle maskiner. Denne forskjellen, hevder de samme, skaper en “ansvarsglippe”, ved at det enten blir urimelig eller feil å si at mennesker har ansvar for maskinens handling. 

Mennesker må ta ansvar

Er det for eksempel riktig å si at sjakkprogrammene Stockfish eller AlphaZero slo en menneskelig mester i spillene sjakk eller go? Kan vi si at en selvkjørende bil er så avansert at det blir urimelig å ikke tillegge bilen eller programvaren noe ansvar for eventuelle uønskede hendelser? I en ny artikkel svarer jeg nei på begge disse spørsmålene. Jeg hevder at et slør av kompleksitet skaper et feilaktig inntrykk av at moderne maskiner er spesielle – noe nærmest mystisk eller magisk. Når vi fjerner dette sløret og analyserer disse maskinene, ser vi at de ikke er spesielle, og at mennesker fremdeles til syvende og sist må stilles til ansvar. 

Maskiner er uforutsigbare og bruker feil som metode

Moderne maskiner er uhyre kompliserte, og det er vanskelig å forutsi hva en algoritme som trenes opp via maskinlæring vil komme frem til. Uforutsigbarhet er derfor det første argumentet som ofte brukes for at det finnes en ansvarsglippe. Et annet argument er at maskinlæring i stor grad er basert på å bruke feil som metode for å komme frem til beslutninger. Mennesker, hevder de, kan da ikke være ansvarlige for en prosess der feil både brukes aktivt og kan oppstå utilsiktet? Ved bruk av maskinlæring forsøker maskinen seg på flere ulike strategier, og på denne måten elimineres uhensiktsmessige metoder og algoritmene blir gode til å optimalisere. Noen ganger fører dette til overraskende gode tips til serier og filmer i Netflix, men andre ganger blir mennesker for eksempel diskriminert når de søker lån eller kredittkort.

At kunstig intelligens i praksis kan være uforutsigbar for den som utvikler algoritmene er sant. Jeg hevder allikevel at dette er irrelevant. Dersom noen lager en maskin som ikke kan forstås eller forutsies, er det allikevel et menneske som står ansvarlig dersom man velger å bruke denne maskinen. Det samme gjelder resonnementet knyttet til bruk av feil som metode. Den som velger å bruke feil som metode må stå til ansvar for de feilene som følger. Dersom jeg for eksempel velger å bruke et uforutsigbart og lite treffsikkert våpen på et område der andre feiles, vil ikke denne uforutsigbarheten eller lave treffsikkerheten frata meg ansvar når jeg skader noen. Kanskje tvert imot?

Mennesker står bak kodingen av maskinene

I artikkelen går jeg grunnleggende til verks og forklarer hva kunstig intelligens egentlig er, og hvordan moderne maskiners “handlinger” til syvende og sist er resultatet av menneskelig villet handling. Mennesker skriver kode, kjører koden gjennom programmer som gjør den om til nye programmer, som kan kjøres av forskjellige operativsystemer. Noen slike programmer bruker du for å lese denne saken, ved at de kjøres på telefonen eller datamaskinen din. Andre kjøres av moderne biler, og brukes for eksempel til å hjelpe med nødbrems, filskifte, o.l. Atter andre programmer spiller spill som sjakk og go. 

Viktig med innovasjon, men vi må ta ansvar for konsekvensene 

Spørsmål om ansvar og regulering blir stadig viktigere, spesielt siden vi delegerer stadig mer ansvar til maskinene. Autonome våpensystemer er et opplagt tilfelle som vil kreve mye oppmerksomhet, men også fullstendig eller delvis selvkjørende biler skaper store utfordringer. Jeg mener tradisjonelle teorier for å fordele ansvar er tilstrekkelige, men det er helt nødvendig at vi som samfunn aktivt regulerer hvordan ny teknologi kan brukes og ikke. Slik teknologi gir potensielt store fordeler, men ikke uten at vi også tilfører noe ny risiko og noen nye utfordringer, som hvem som har skylden når den selvkjørende bilen traff en fotgjenger, eller når roboten på eldrehjemmet i en ulykkeshendelse skadet en besøkende. Regulerer vi for hardt risikerer vi å hindre verdifull innovasjon, men dette gir ikke grunnlag for å late som at moderne maskiner er noe mystisk vi ikke helt kan forstå. 

Artikkelen er åpent tilgjengelig her på følgende adresse: https://www.igi-global.com/article/confounding-complexity-of-machine-action/269437


Henrik Skaug Sætra, førstelektor ved Avdeling for økonomi, språk og samfunnsfag ved Høgskolen i Østfold. Sætra har en PhD i statsvitenskap fra Universitetet i Oslo, og forsker på forholdet mellom menneske, samfunn og teknologi. Han er spesielt interessert i fagområdet politisk teori, og har med utgangspunktet i dette fagområdet arbeidet mye med teknologi, spillteori og miljøetikk. I Sætras artikler og publikasjoner er tilnærmingen tverrfaglig og han fokuserer på digitaliseringen av samfunnet i lyset av etiske og politiske utfordringer for det liberal-demokratiske samfunn. 

Flere artikler fra Henrik Sætra omtalt på hiof.no:

Av Henrik Sætra
Publisert 8. jan. 2021 13:07 - Sist endret 8. jan. 2021 13:07