Annons

Etikproffset: AI kopierar våra fördomar

Diskriminering mot kvinnor – och beslut som ingen förstår hur de fattas. Artificiell intelligens finns överallt omkring oss, men nu måste tekniken också lära sig etik. Det anser EU:s expertgrupp för etisk AI, som precis presenterat sin första delrapport.

– Om människor inte litar på tekniken så kommer den inte att användas, säger IBM:s representant i gruppen, Francesca Rossi.

Under strecket
Publicerad

Francesca Rossi.

Foto: Foto: IBMBild 1 av 1

Francesca Rossi.

Foto: Foto: IBMBild 1 av 1
Francesca Rossi.
Francesca Rossi. Foto: Foto: IBM

Debatten kring artificiell intelligens, AI, och etik har ofta handlat om dystra framtidsscenarier. Entreprenören Elon Musk och den svenska Oxford-professorn Nick Boström har varnat för att vi måste stoppa superintelligenta men onda datorer från att ta över världen.

– Den här rapporten handlar om dagsfrågor och hur de ska lösas. Hur vi vill att tekniken ska fungera i dag, säger Francesca Rossi.

Hon är global chef för etisk AI på IBM, och företagets representant i EU:s expertgrupp.

– Tar vi hand om de dagsaktuella frågorna på rätt sätt, kommer det också att hjälpa oss med de frågor som uppkommer i framtiden.

De flesta av oss använder AI varje dag, ofta utan att ens tänka på det. Den smarta högtalaren styrs av AI, och en GPS använder en form av AI för att räkna ut den snabbaste vägen.

Annons
Annons

Det som expertgruppen fokuserat på är hur myndigheter och företag använder AI. Även här är tekniken vardagsmat. Läkar-appen använder AI för att lista ut vilken typ av specialist som en patent borde tala med, butikens chattfunktion hittar på sina svar med hjälp av AI, och flera svenska kommuner använder tekniken för att fatta rutinmässiga beslut om bidrag.

Två av de problem som gruppen har identifierat som etiska utmaningar är fördomar och transparens.

Modern AI fungerar så att datorn som ska lära sig att handlägga till exempel låneansökningar till en bank, studerar tusentals eller tiotusentals ärenden som människor handlagt – för att lära sig vilka som ska avslås och vilka som ska godkännas.

– Om det fanns en fördom mot till exempel kvinnor i träningsdatan, så kommer den fördomen att följa med in i AI-systemet, säger Fransca Rossi.

AI är en väldigt framgångsrik teknik som sällan gör fel, men som inte alltid kan förklaras

Att upptäcka fördomarna är svårare än man kan tro. Francesca Rossi berättar att forskare har identifierat 180 varianter av så kallade kognitiva bias, en form av psykologiska mönster, som människor har – ofta utan att ens vara medvetna om dem.

– IBM har tagit fram verktyg som kan analysera de data som matas in i maskinen för att hitta risker, berättar hon.

Självklart använder IBM:s verktyg för att leta fördomar – just det – AI.

Det andra stora området är transparens. Det är helt enkelt omöjligt att veta exakt hur en komplex AI kommer fram till sina slutsatser. Man matar in en massa data som bearbetas av en algoritm – och ut kommer ett (förhoppningsvis) rätt resultat. Men vad som händer inne i maskinen är en ”svart låda”.

Annons
Annons

Så kan det inte fortsätta, menar Francesca Rossi.

– En läkare kan inte lita på ett system som föreslår en behandling utan att kunna förklara varför. En myndighet kan inte använda AI för att fatta beslut om dessa inte senare kan förklaras och motiveras, säger hon.

Om folk inte litar på tekniken använder man den inte.

Problemet är att forskarna inte vet hur de ska få algoritmerna att förklara hur de kommer fram till sina resultat.

– Mycket forskning återstår innan vi kommer att kunna lösa det problemet. AI är en väldigt framgångsrik teknik som sällan gör fel, men som inte alltid kan förklaras.

EU:s expertgrupp kommer nu att arbeta vidare och ta fram förlag till konkreta riktlinjer för etisk AI. Francesca Rossi menar att målet inte bör vara att EU sedan tar fram förslag till ny lagstiftning.

– Jag är inte säker på att det mest effektiva sättet att implementera etisk AI är genom lagar och regleringar. Jag tror att man kan nå långt med självreglering och certifieringar, säger hon.

Hon räknar med att det kommer att vara ganska enkelt att få näringslivet att ställa upp på de nya reglerna. Det är helt enkelt en bra affär.

– Etisk AI handlar om tillit, och tillit är en nödvändighet. Om folk inte litar på tekniken använder man den inte. Och det kommer att kosta pengar för företagen, säger Francesca Rossi och fortsätter:

– Men ännu viktigare än pengar är att samhället kommer att gå miste om en teknik som kan lösa stora problem om människor inte litar på den.

Annons
Annons
Annons
Annons
Annons