Transparens och ansvar avgörande för en rättvis AI-utveckling

AI-utvecklingen går i rasande fart, och potentialen för samhällsnytta är enorm. Men det finns också negativa aspekter som måste adresseras för en etisk och socialt rättvis AI-användning. Transparens och ansvar är A och O, enligt forskarna i projektet som leds av Panagiotis Papapetrou.

Artificiell intelligens, AI, är inte nytt som begrepp men de senaste åren har tekniken utvecklats explosionsartat. Från att ha varit något främmande och science fiction-kopplat är många AI-verktyg i dag vardagsmat. Och allt talar för att denna utveckling kommer att fortsätta.

AI förväntas revolutionera olika samhällssektorer och har potential att åstadkomma många positiva förändringar. Inom sjukvården kan AI-assistenter hjälpa läkare och sjuksköterskor med underlag för säkrare diagnoser och bättre utnyttjande av begränsade medicinska resurser. I skolan finns AI-verktyg som kan skräddarsy uppgifter efter varje elevs behov och lärandemål. Lärare kan också få hjälp med standardiserade uppgifter som kursadministration, studentbedömningar, utveckling av läroplaner och tillsyn. Inom näringslivet kan AI optimera investeringsstrategier, minska finansiella risker och automatisera processer, som rekrytering och resursallokering. Inom polisen kan AI hjälpa till att identifiera kriminella eller bedrägliga aktiviteter och stödja automatiserad övervakning.

I ett större perspektiv finns förväntningar om att AI ska möjliggöra vetenskapliga upptäckter och lösa globala utmaningar. Allt talar för att den artificiella intelligensen har en avgörande roll i att forma den mänskliga framtiden, och att vi kommer att se positiva transformativa förändringar under de närmaste åren.

Men det finns också orosmoln. I takt med att AI-verktygen tas i bruk hörs allt fler varningar om deras effekter. Fejkade bilder, diskriminerande rekryteringar och felaktiga patientbedömningar är bara några av de negativa erfarenheter som har rapporterats. Ofta handlar det om att de data som har använts för att träna AI-modellerna är snedvridna och missvisande.

Den senaste tidens erfarenheter visar hur viktigt och brådskande det är att belysa de stora sociala frågor som berörs av AI-utvecklingen. Att systemen utvecklas och distribueras på ett socialt rättvist sätt behöver säkerställas. Transparens och ansvarsskyldighet för algoritmer är avgörande för en etisk och rättvis användning av AI-teknik.

Detta innebär en kritisk och mångfacetterad forskningsutmaning. Arbetet kräver ett multidisciplinärt tillvägagångssätt som kombinerar teknisk expertis, etiska överväganden och en nyanserad förståelse för de sociala och kulturella sammanhang där AI-system används.

För att uppnå AI-assisterat beslutsfattande som är baserat på rättvisa och ansvarstagande kommer forskarna i projektet att undersöka:

  • Hur man säkerställer rättvis AI genom design
  • Hur man säkerställer ett transparent och ansvarsfullt AI-baserat beslutsfattande
  • Hur effekten av projektets lösningar kan bedömas inom områden som vård och utbildning.

Projekt:
“AI for society: Towards socially just algorithmic decision making”
"Artificiell intelligens (AI) för samhället: Mot socialt rättvist algoritmiskt beslutsfattande".

Huvudsökande:
Professor Panagiotis Papapetrou

Medsökande:
Stockholms universitet
Sindri Magnússon
Teresa Cerratto-Pargman
Stanley Greenstein

Lärosäte:
Stockholms universitet

Beviljat anslag:
6,4 miljoner kronor