Ibland känns det som om vi människor är fångar i våra egna hjärnor. Trots vår vilja att fatta välgrundade beslut, tenderar vi att göra motsatsen. Vi låter oss ofta styras av första intryck, dras till likheter och söker bekräftelse som styrker våra förutfattade meningar: "Den här personen hade ett stadigt handslag – det måste vara ledarmaterial!" fastslår vi snabbt och självsäkert.
I denna virvel av bias och fördomar navigerar vi genom rekryteringsprocesser och snubblar över våra egna felsteg, där våra beslut färgas av fördomar och misstag. Det är då kanske inte så överraskande, utan rent av logiskt och vettigt, att vi söker hjälp av maskiner för att fatta beslut fria från mänskliga tankefel.
Idag använder många arbetsgivare AI inom rekrytering och urval, med en uttalad strävan efter en mer rättvis process. Men vet vi att resultatet blir mer objektivt? Låt oss utforska AI:s spännande värld och förstå vad som händer i våra nya arbetskamraters "hjärnor"!
Människor har alltid fascinerats av tanken att skapa intelligens från grunden. Vi har byggt maskiner som kan räkna, översätta språk och spela schack. Utvecklare av Artificiell Intelligens (AI) har som mål att skapa datorprogram och system som kan efterlikna mänsklig intelligens. Det innebär att ge datorer förmågan att tänka, lära sig och fatta beslut som liknar människors. Teknologin tillämpas idag inom olika områden, såsom självkörande bilar, medicinsk diagnos, finansiell analys och spelutveckling. Även inom HR används AI, och exempel från rekryteringsområdet kan vara följande:
AI används idag inom så många områden att vi troligtvis inte reflekterar över när och hur vi använder det. Liksom med all annan information är det viktigt att vara källkritisk och förstå vilka antaganden som lett fram till ett svar eller utlåtande. Men det är inte alltid så lätt, har det visat sig.
För att kritiskt kunna förstå och tolka data från AI måste vi begripa hur maskinen genererar sin kunskap. Låt oss jämföra det med att undervisa elever i skolan:
Det finns flera sätt att träna AI. Gemensamt är att kvaliteten på dataunderlaget i kombination med mänsklig respons är avgörande för hur AI lär sig. Hur påverkar det rekryteringar utförda av AI, kan de bli rättvisa och neutrala?
I rekryteringsprocesser kan historiska fördomar och tankemönster påverka våra beslut mer än vi inser. Trots att få öppet identifierar sig som rasister eller sexister, är ojämlikhet på arbetsplatser utbredd. Vita män har vanligtvis högre löner och bättre jobb. Människor tenderar att favorisera dem som liknar oss och gynna dem i våra nätverk. Mänskliga beslut påverkas av fördomar, bland annat baserat på faktorer som hudfärg och kön. Frågan är om vi verkligen borde låta människor fatta viktiga beslut?
Under en period använde Amazon ett AI-verktyg för rekrytering som tränades med CV-data från en tioårsperiod, där majoriteten var män. AI:n drog slutsatsen att män var framstående inom teknikbranschen och därför nedvärderade kvinnliga ansökningar. Utvärderingar visade att CV:n som innehöll "woman's", som i "woman's chess club captain" bortprioriterades.
Ansiktsigenkänning vid intervjuer ökar i vissa länder, men det finns flera utmaningar. När AI endast testas på en specifik grupp, som exempelvis män, har det svårigheter att korrekt identifiera ansikten från andra grupper. Det har lett till att kvinnor, särskilt mörkhyade, missgynnas. Ibland används ansiktsigenkänning för att identifiera karaktärsdrag. Det kan leda till att historisk ojämlikhet vidmakthålls och bekräftas.
Med vetskapen om att AI:s resultat inte är bättre än dess underlag kan det vara lockande att påverka svaren i en riktning som kan uppfattas som god. Kan det vara en lösning för att få fördomsfria rekryteringar?
Implicit bias, omedvetna preferenser, är som dolda spöken i rekryteringsprocessen. Förutfattade meningar påverkar allt från ansökningsformulär till intervjuer och slutligt urval. Mänskliga felbedömningar smittar även av sig på AI-system.
Människor kan logiskt fastslå att det inte finns några skillnader mellan mäns och kvinnors förmåga att programmera datorer. AI-maskiner drar istället slutsatser främst baserade på empiriska fakta. Om fler män faktiskt syns som programmerare i det underlag som AI:n utgår från, kan svaren bli snedvridna till fördel för män. För att hantera denna utmaning kan det vara lockande att manipulera underlaget för att passa ”vår” världsbild.
I USA finns så kallade krisgraviditetscenter (CPC). De är kopplade till icke-medicinska religiösa organisationer med mål att förhindra aborter. Under 2018 började medierna granska varför CPC kom som resultat när folk sökte efter "abortkliniker" på Google Maps. Samtidigt visades inte kliniker som utförde aborter. Det var som om kartan ledde människor till en alternativ verklighet där abortkliniker var osynliga. Det visade sig att resultaten hade justerats av Google Maps. Samtidigt uppmärksammade media att platser som strippklubbar och alkoholbutiker inte hade tagits bort.
Inga svar från AI, varken baserade på historiska data eller en tillrättalagd verklighet, tycks vara fria från mänskliga tankefel. Kan HR ändå använda AI som stöd i sitt arbete?
Det är som om vi har lyckats smitta av våra fördomar på tekniken. Ett ansvarsfullt användande av AI kräver en förståelse för hur dessa system fattar sina beslut, och hur de kan påverkas av våra egna fördomar och tankemönster. Trots avancerade algoritmer ger AI bara sin bästa uppskattning baserat på tillgängliga data och respons. Därför krävs god ämneskunskap och kritisk bedömning av användaren.
Många har redan lärt sig uppskatta AI som assistent vid rutinuppgifter. Men kanske är det bästa rådet att inte överlåta kontrollen helt till tekniken, utan att arbeta tillsammans med vår nya arbetskamrat AI? Nedan några avslutande tips:
Vill du veta mer om hur AI påverkar HR arbetet? Kontakta oss på Wise Consulting!
Magnus Berglund, Senior HR-konsult på Wise Consulting.
Tips på vidare läsning:
Sumpter, David J. T. (2019). Uträknad: sanningen om algoritmerna som styr världen. Stockholm: Volante