AI vid rekrytering: Från mänskliga till maskinella feltänk

Kan vi lita på våra egna beslutsfattande förmågor när det gäller rekrytering? Trots vår strävan att vara objektiva styrs vi ofta av fördomar och instinkter. Men vad händer när vi överlåter ansvaret till AI? Vår seniora HR-konsult, Magnus Berglund, utforskar den fascinerande världen av Artificiell Intelligens och dess roll inom rekrytering, och delar med sig av sina tankar och resonemang kring ämnet. Låt oss undersöka hur teknologin kan bidra till en mer rättvis arbetsmarknad och vilka fallgropar vi behöver undvika på vägen.


Ibland känns det som om vi människor är fångar i våra egna hjärnor. Trots vår vilja att fatta välgrundade beslut, tenderar vi att göra motsatsen. Vi låter oss ofta styras av första intryck, dras till likheter och söker bekräftelse som styrker våra förutfattade meningar: "Den här personen hade ett stadigt handslag – det måste vara ledarmaterial!" fastslår vi snabbt och självsäkert.

I denna virvel av bias och fördomar navigerar vi genom rekryteringsprocesser och snubblar över våra egna felsteg, där våra beslut färgas av fördomar och misstag. Det är då kanske inte så överraskande, utan rent av logiskt och vettigt, att vi söker hjälp av maskiner för att fatta beslut fria från mänskliga tankefel.

Idag använder många arbetsgivare AI inom rekrytering och urval, med en uttalad strävan efter en mer rättvis process. Men vet vi att resultatet blir mer objektivt? Låt oss utforska AI:s spännande värld och förstå vad som händer i våra nya arbetskamraters "hjärnor"!

Vad är AI och vad skall vi ha det till?

Människor har alltid fascinerats av tanken att skapa intelligens från grunden. Vi har byggt maskiner som kan räkna, översätta språk och spela schack. Utvecklare av Artificiell Intelligens (AI) har som mål att skapa datorprogram och system som kan efterlikna mänsklig intelligens. Det innebär att ge datorer förmågan att tänka, lära sig och fatta beslut som liknar människors. Teknologin tillämpas idag inom olika områden, såsom självkörande bilar, medicinsk diagnos, finansiell analys och spelutveckling. Även inom HR används AI, och exempel från rekryteringsområdet kan vara följande:

  • Vi kan få hjälp att analysera ansökningshandlingar, själva intervjun och vad kandidater säger i samtalet.
  • Vid videointervjuer kan AI användas för att analysera kroppsspråk och ansiktsuttryck. Dessa jämförs sedan med profiler av "bra" anställda.
  • Intelligens- och begåvningstester kan också anpassas och göras svårare eller lättare beroende på kandidatens svar. När testet är klart levererar AI snabbt en tolkning tillbaka till HR.

AI används idag inom så många områden att vi troligtvis inte reflekterar över när och hur vi använder det. Liksom med all annan information är det viktigt att vara källkritisk och förstå vilka antaganden som lett fram till ett svar eller utlåtande. Men det är inte alltid så lätt, har det visat sig.

Var får AI allt ifrån?

För att kritiskt kunna förstå och tolka data från AI måste vi begripa hur maskinen genererar sin kunskap. Låt oss jämföra det med att undervisa elever i skolan:

  • Övervakad inlärning: Som när en lärare visar elever bilder på olika djur och säger vad varje varelse är. Då lär sig eleverna att känna igen djuren. På samma sätt lär sig AI-maskiner genom att vi visar dem exempel och berättar vad varje sak är. Som när vi tränar en AI att känna igen ”dugliga” medarbetare.
  • Oövervakad inlärning: Här släpper vi eleverna lösa i en djungel utan en lärare. De får utforska och lära sig själva. På motsvarande sätt matar vi AI med data och låter den hitta mönster och samband på egen hand, till exempel att hjälpa till med screening av CV:er genom att analysera stora mängder och identifiera mönster och likheter bland dem.

Det finns flera sätt att träna AI. Gemensamt är att kvaliteten på dataunderlaget i kombination med mänsklig respons är avgörande för hur AI lär sig. Hur påverkar det rekryteringar utförda av AI, kan de bli rättvisa och neutrala?

AI: En ny arbetskamrat med begränsningar

I rekryteringsprocesser kan historiska fördomar och tankemönster påverka våra beslut mer än vi inser. Trots att få öppet identifierar sig som rasister eller sexister, är ojämlikhet på arbetsplatser utbredd. Vita män har vanligtvis högre löner och bättre jobb. Människor tenderar att favorisera dem som liknar oss och gynna dem i våra nätverk. Mänskliga beslut påverkas av fördomar, bland annat baserat på faktorer som hudfärg och kön. Frågan är om vi verkligen borde låta människor fatta viktiga beslut?

Under en period använde Amazon ett AI-verktyg för rekrytering som tränades med CV-data från en tioårsperiod, där majoriteten var män. AI:n drog slutsatsen att män var framstående inom teknikbranschen och därför nedvärderade kvinnliga ansökningar. Utvärderingar visade att CV:n som innehöll "woman's", som i "woman's chess club captain" bortprioriterades.

Ansiktsigenkänning vid intervjuer ökar i vissa länder, men det finns flera utmaningar. När AI endast testas på en specifik grupp, som exempelvis män, har det svårigheter att korrekt identifiera ansikten från andra grupper. Det har lett till att kvinnor, särskilt mörkhyade, missgynnas. Ibland används ansiktsigenkänning för att identifiera karaktärsdrag. Det kan leda till att historisk ojämlikhet vidmakthålls och bekräftas.

Med vetskapen om att AI:s resultat inte är bättre än dess underlag kan det vara lockande att påverka svaren i en riktning som kan uppfattas som god. Kan det vara en lösning för att få fördomsfria rekryteringar?

Feltänk vid rekrytering: Den mänskliga faktorn överförd till maskinerna

Implicit bias, omedvetna preferenser, är som dolda spöken i rekryteringsprocessen. Förutfattade meningar påverkar allt från ansökningsformulär till intervjuer och slutligt urval. Mänskliga felbedömningar smittar även av sig på AI-system.

Människor kan logiskt fastslå att det inte finns några skillnader mellan mäns och kvinnors förmåga att programmera datorer. AI-maskiner drar istället slutsatser främst baserade på empiriska fakta. Om fler män faktiskt syns som programmerare i det underlag som AI:n utgår från, kan svaren bli snedvridna till fördel för män. För att hantera denna utmaning kan det vara lockande att manipulera underlaget för att passa ”vår” världsbild.

I USA finns så kallade krisgraviditetscenter (CPC). De är kopplade till icke-medicinska religiösa organisationer med mål att förhindra aborter. Under 2018 började medierna granska varför CPC kom som resultat när folk sökte efter "abortkliniker" på Google Maps. Samtidigt visades inte kliniker som utförde aborter. Det var som om kartan ledde människor till en alternativ verklighet där abortkliniker var osynliga. Det visade sig att resultaten hade justerats av Google Maps. Samtidigt uppmärksammade media att platser som strippklubbar och alkoholbutiker inte hade tagits bort.

Inga svar från AI, varken baserade på historiska data eller en tillrättalagd verklighet, tycks vara fria från mänskliga tankefel. Kan HR ändå använda AI som stöd i sitt arbete?

Använd AI ansvarsfullt

Det är som om vi har lyckats smitta av våra fördomar på tekniken. Ett ansvarsfullt användande av AI kräver en förståelse för hur dessa system fattar sina beslut, och hur de kan påverkas av våra egna fördomar och tankemönster. Trots avancerade algoritmer ger AI bara sin bästa uppskattning baserat på tillgängliga data och respons. Därför krävs god ämneskunskap och kritisk bedömning av användaren.

Många har redan lärt sig uppskatta AI som assistent vid rutinuppgifter. Men kanske är det bästa rådet att inte överlåta kontrollen helt till tekniken, utan att arbeta tillsammans med vår nya arbetskamrat AI? Nedan några avslutande tips:

  • Mångfald och representativitet: Se till att den data som används för att träna AI-system är representativt för olika grupper och bakgrunder för att undvika snedvridning och diskriminering.
  • Transparens och förståelse: Användare, både rekryterare och kandidater, måste kunna förstå hur AI fattar sina beslut och vilka data som används.
  • Kontinuerlig utvärdering och övervakning: Utvärdera regelbundet AI-systemens prestanda och effekter på rekryteringsprocessen. Övervaka systemet för att upptäcka och korrigera eventuella avvikelser eller bias som uppträder över tiden. Slutliga anställningsbeslut bör inte enbart baseras på AI utan kräver mänskligt omdöme.
  • Kontinuerlig utbildning och uppdatering: Se till att de som arbetar med AI-rekryteringsverktyg är korrekt utbildade och uppdaterade om de senaste riktlinjerna och bästa praxis för ansvarsfull användning av tekniken.

Vill du veta mer om hur AI påverkar HR arbetet? Kontakta oss på Wise Consulting!

Magnus Berglund, Senior HR-konsult på Wise Consulting.

Tips på vidare läsning:

Dastin, J. (2018, 10 oktober). Amazon scraps secret AI recruiting tool that showed bias against Women. Reuters.

Sumpter, David J. T. (2019). Uträknad: sanningen om algoritmerna som styr världen. Stockholm: Volante

Prenumerera på vårt nyhetsbrev!

Vill du få en up-date när vi fyller på med nytt innehåll, såsom events, bloggar, guider eller spännande poddavsnitt? Då ska du fylla i dina uppgifter här så skickar vi dig ett mail när det finns nytt innehåll!