Ansvarsfrågan vid AI-styrt beslutsfattande inom offentlig förvaltning

Forskarna i projektet ska undersöka ansvarsutkrävande utifrån ett filosofiskt och juridiskt perspektiv när det gäller automatiserat eller AI-styrt beslutsfattande inom offentlig förvaltning.

Många beslutsprocesser inom samhällets offentliga förvaltning baseras redan idag på enkla algoritmer. Hur mycket skatt man ska betala, om man har rätt till socialbidrag eller till och med om man är berättigad till svenskt medborgarskap är beslut som får tas av algoritmer. 

Framsteg inom AI-teknologin har lett till utvecklande av system baserade på alltmer avancerade algoritmer. Dessa system har mindre transparens, kan bearbeta stora mängder data, är flexibla och kan i viss utsträckning forma sig själva. 

Om automatiserade eller AI-styrda beslutsfattande system blir vanligare är det tänkbart att sådana system skulle kunna ersätta en stor del av mänskligt beslutsfattande inom offentlig förvaltning. En sådan utveckling väcker fundamentala juridiska och filosofiska frågor om ansvarsutkrävande: vem, vilka eller vad skulle hållas ansvarigt för eventuella felaktiga beslut och varför?

Forskarna i det interdisciplinära projektet skiljer mellan tre fall: 

  1. Artificiella system som bygger på enkla algoritmer. Trots att ansvarsutkrävandet i detta fall i regel faller på människor så är rättsläget i Sverige otydligt. 
  2. Artificiella system som självlärande och självutvecklande algoritmer. I detta fall behöver man ta ställning till helt nya juridiska och filosofiska frågor. Exempelvis kan beslut som fattas av AI-system på denna nivå inte självklart i efterhand förstås av människor, likväl måste ansvaret för besluten tillskrivas någon eller något. 
  3. Det hypotetiska scenariot att AI-system uppvisar beteende som inte kan skiljas ifrån mänskligt beteende eller till och med äger något som kan anses likvärdigt till mänskligt medvetande. Skulle en sådan hypotetisk enhet kunna anses vara ansvarig för dess beslut utifrån ett juridisk och filosofiskt perspektiv?

Forskarnas syfte är att undersöka ansvarsutkrävande utifrån ett filosofiskt och juridiskt perspektiv i alla tre fall. De ska undersöka om det finns ett behov av att hitta nya – eller justera befintliga – regler av ansvarsutkrävande när det gäller autonoma system. För detta ändamål analyserar de både hur ansvarsutkrävning fungerar inom svensk lagstiftning och hur moraliskt ansvar och moralisk agens kan förstås genom filosofiska resonemang. Utgångspunkterna för analysen kommer att vara ansvarsutkrävande inom svensk lagstiftning samt en filosofisk analys av moraliskt ansvar och moralisk agens. 

Resultatet av analysen ska utmynna i konkreta förslag på modifierade, och nya former av, kategorier för ansvarsutkrävande som kan appliceras både allmänt och mer specifikt i en svensk kontext inom lagstiftningen. Vidare så förväntas den filosofiska och juridiska analysen resultera i en djupare förståelse av de etiska, juridiska och samhälleliga konsekvenserna av introduktion av AI system i offentlig förvaltning.

Projekt:
”The Artificial Public Servant” (Den konstgjorda statstjänstemannen”).

Huvudsökande:
Sandra Friberg

Medsökande:
Johan Eddebo
Lars Karlander
Oliver Li

Lärosäte:
Uppsala universitet

Beviljat anslag:
6 miljoner kronor