Hoppa till huvudinnehållet
Porträtt Virgina Dignum, Umeå universitet

Man kan aldrig skylla ett beslut på AI-systemet. Det ska vara just ett stöd, inget annat. Men det måste alltid vara en människa som tar ansvar för det slutgiltiga beslutet, säger Virginia Dignum professor i social och etisk AI vid Umeå universitet.

Bild: Magnus Hansson

AI

”Vi kan inte lämna över ansvaret för AI på utvecklarna”

Artificiell intelligens kan vara ett bra stöd i arbetslivet. Samtidigt finns det många utmaningar. Diskriminering, fördomar och oansvarig datahantering är bara några av dem. Så hur hanterar vi de etiska riskerna på bästa sätt?

AI-verktyg kan spara mycket tid och resurser. Till exempel när företag ska sålla bland hundratals jobbansökningar eller när ett kreditinstitut ska gå igenom tusentals kreditansökningar. Men hur försäkrar man sig om att resultatet blir korrekt, rättvist och inte snedvridet? Och vem ska ta ansvar för de beslut som AI-verktyget föreslår?

Virginia Dignum är professor i social och etisk AI vid Umeå universitet. Hon menar att detta är en ständigt pågående process som involverar alla som utvecklar, använder eller berörs av artificiell intelligens.

– Vi måste ha en dialog mellan alla parter. Vi kan inte bara lämna över ansvaret för att AI-systemen är rättvisa och etiska på företagen som utvecklar dem, eller på de som använder dem. Det är ett gemensamt arbete, där alla måste engagera sig: utvecklare, företag, myndigheter och användare. Och detta måste pågå under hela livscykeln, det tar aldrig slut.

Ibland går det snett

Det finns flera exempel på hur det kan gå snett när man har missat eller slarvat i utvecklingen av AI-system så att de innehåller snedvridningar. Virginia Dignum nämner Apples första versioner av ansiktsigenkänning i Iphone som ett exempel.

– De tidiga versionerna var dåligt testade på svarta kvinnor. Det gjorde att telefonen inte kände igen deras ansikten så att de inte kunde öppna sina telefoner med hjälp av ansiktsigenkänning. Detta misstag gav förstås dålig publicitet till företaget som hade missat att ta hänsyn till detta i sin utveckling.

Risk för bias

Ett annat exempel är när artificiell intelligens används vid rekrytering. AI-stöd kan vara till stor hjälp för att göra en första sållning vid stora mängder av jobbansökningar. Problemet är bara om systemet är tränat på historisk data som inte har korrigerats för tidigare bias och mänskliga fördomar.

– Om ett företag till exempel söker en programmerare finns risken att AI-modellen sållar bort kvinnliga sökande eftersom det historiskt sett alltid varit fler män i dessa roller och de då, enligt AI-modellen, är mer ”lämpade” för jobbet, förklarar Virginia Dignum. 

Man kan aldrig skylla ett beslut på AI-systemet. En människa måste ta ansvar för det slutgiltiga beslutet.

Här gäller det att vara uppmärksam, medveten om riskerna som finns med den historiska data som AI-systemen bygger på och att alltid låta en människa checka av systemets svar.

– Man kan aldrig skylla ett beslut på AI-systemet. Det ska vara just ett stöd, inget annat. Men det måste alltid vara en människa som tar ansvar för det slutgiltiga beslutet, säger Virginia Dignum.

Ställ krav på leverantören

Källkritik är med andra ord a och o när artificiell intelligens används som beslutsstöd, liksom att ställa höga krav på sina systemleverantörer. Evelina Anttila har arbetat länge med etiska och juridiska frågor kring AI, bland annat som ansvarig för etiska och legala frågor på AI-mjukvaruföretaget Peltarion. Hon poängterar vikten av transparens mellan leverantör och användare.

Evelina Anttila
Evelina Anttila
Bild: Annika Falkuggla

– Tillit och förtroende är en förutsättning för utveckling och användning AI-system. Om inte AI-systemen är tillförlitliga kan det ge oönskade konsekvenser som i förlängningen kan leda till att det inte går att utnyttja de potentiellt enorma samhälleliga fördelarna med AI-teknologi, säger hon.

Vi behöver därför ställa oss frågor kring hur AI-modellerna har byggts och vilken data de tränats på.

– Du vill förstå hur AI-modellen kom fram till sitt beslut och du vill kunna utvärdera systemet för att förstå vilka incitament den jobbar efter.

EU-lagstiftning på gång

– När det gäller att få folk generellt mer positiva till AI kan tillit och transparens göra skillnad. Och här kan lämpliga regler och riktlinjer för hur vi utformar och använder systemen hjälpa, säger Evelina Anttila.

AI är inte oreglerat – många företag och organisationer har redan tagit fram riktlinjer – men i dag finns det inte någon lagstiftning i EU som är särskilt inriktad på AI. Det kommer sannolikt att ändras inom en snar framtid då EU:s nya AI-förordning, AI Act, träder i kraft. Den väntas innehålla omfattande krav på dokumentation, ramverk och rapportering och innebära en hel del arbete för dem som vill använda AI.

– Utvecklingen av AI kräver både ansvarstagande och nyfikenhet. För att främja tillit är det viktigt att utvärdera AI-system både från ett juridiskt och etiskt perspektiv. Men det är också viktigt att lagstiftning inte hämmar innovation, säger Evelina Anttila.

En del av kritiken som förts fram mot AI Act är att de föreslagna reglerna är för omfattande och i delar svåra att överblicka eller bedöma konsekvenserna av.

– Det är helt enkelt viktigt med en balans i det här avseendet så att vi inte hindrar möjligheter att skapa viktiga lösningar för framtiden, säger Evelina Anttila.

Ökar företagets attraktionskraft

Men företag kommer att vara tvungna att ta etiskt ansvar kring sitt AI-användande, inte bara på grund av lagstiftning, utan också för att fortsätta vara attraktiva som arbetsgivare och för sina kunder. Virginia Dignum jämför det med hållbarhetsarbete.

– Genom att visa omvärlden att företaget tar ansvar för hur de använder AI och att man tar de etiska bitarna på allvar blir det också mer attraktivt för sin omvärld, både kunder och medarbetare. Jag tror att den yngre generationen kommer att efterfråga detta på precis samma sätt som de redan i dag efterfrågar att arbetsgivare ska ta miljö- och hållbarhetshänsyn för att de ska vilja arbeta för dem.

FAKTA

Så kan du jobba med ansvar och etik i AI

  • Utbilda dig själv och din organisation om AI och i AI-etik. Det handlar både om att vara uppmärksam på risker och att vara attraktiv ur konkurrensperspektiv.
  • Fundera igenom hur din verksamhet kommer att påverkas av AI Act. Håll dig uppdaterad på området.    
  • Finns inte kompetensen kring dessa frågor internt? Tveka inte att ta in den från externt håll.
  • När ni börjar integrera AI-verktyg behöver företaget ha ett ramverk och en uppförandekod att följa. Flera branschorganisationer har redan tagit fram detta för sina medlemmar. 

Källor: Evelina Anttila & Virginia Dignum

bild på Karin Cedronius

Karin Cedronius

Mer om AI

Senaste om Mer om arbetsmiljö