AI in HR: eeuwige belofte of klaar voor de strijd?

Interviews

Weinig nieuwe technologieën waar zoveel “buzz” rond is, als rond artificiële intelligentie (AI). AI lijkt als mirakeloplossing vandaag alles al te kunnen. In de HR-wereld moet die stelling alvast stevig genuanceerd worden, klinkt het bij HR-dienstverlener Hudson. “De mens is nog een te complex ecosysteem voor machines.”

 

Executive Summary (<1 min. leestijd)

In ongeveer alle sectoren zijn de verwachtingen rond AI hooggespannen, in HR is dat niet anders. Maar hoewel de ontwikkelingen in AI zeer hard gaan, blijft het echte gebruik van de technologie voorlopig erg beperkt. Daar zijn wel enkele verklaringen voor, klinkt het bij HR-dienstverlener Hudson. Bias, bijvoorbeeld, blijft een probleem dat maar moeilijk onder controle te krijgen is. Ook rond dataprivacy zijn er wel wat bezorgdheden. Welke bronnen mogen AI-systemen bijvoorbeeld allemaal gebruiken om een bepaald oordeel te vellen over een solliciterende kandidaat?

Een goede ontwikkeling is alvast dat de EU strenge wetten hierrond in stelling heeft gebracht, aldus Hudson. Naast technische hindernissen zien ze bij de HR-specialist trouwens ook enkele typisch menselijke besognes. Bijvoorbeeld de weerstand van de mens om belangrijke beslissingen exclusief aan machines over te laten. Of een te grote inzet van AI die bedrijven “ontmenselijkt” en minder attractief maakt voor sollicitanten. En last but not least: de intoleranties in de maatschappij als de mens de perfecte AI-systemen niet meer kan bijbenen.

Ook in HR zijn ze uiteraard niet blind voor de ontwikkelingen rond AI, maar de tijd dat assessments volledig in een virtuele omgeving gebeuren of dat kandidaten rollenspellen doen met digitale avatars ligt nog wel even in de toekomst, zegt Charlotte Sabbe, Director Talent Management Public Sector bij Hudson.
“Over de implementatie van de mogelijkheden van AI wordt zeker volop nagedacht, maar in de praktijk blijft alles voorlopig toch vrij kleinschalig en bescheiden. Je ziet bijvoorbeeld wel experimenten met chatbots die ingezet worden voor preselectie in de vroege stadia van aanwervingen. Die kunnen kandidaten bevragen welke diploma’s ze hebben of welke ervaring ze kunnen voorleggen. Dat zijn redelijk basale en repetitieve taken die we vrij gemakkelijk aan een machine kunnen overlaten.
Ook video-interviews worden steeds meer gebruikt, wat een voordeel is voor tijd- en plaatsonafhankelijk werken, maar ook hier gebeuren vandaag de evaluaties en de finale selectie nog altijd door een mens.”

 

Tweesnijdend zwaard

 

“De huidige realiteit van AI en de belofte voor de toekomst zijn nog twee zeer verschillende zaken”, pikt Nikola Trbovic, Director R&D bij Hudson, in. “Al wil dat zeker niet zeggen dat er niks beweegt, integendeel. De snelheid van verandering ligt enorm hoog. Zeker repetitieve en administratieve taken, zoals het invullen van formulieren, zullen meer en meer geautomatiseerd worden. Waarom honderd kandidaten opbellen voor een eerste standaardtelefoontje als een chatbot dat even goed kan? Er zijn grote verwachtingen over processen die efficiënter en sneller zullen verlopen en over kandidaten die op die manier ook meer tevreden zullen zijn over de sollicitatieprocedure.”

De eerste onderzoeken over het gebruik van AI in rekruteringsprocessen tonen aan dat het inzetten van AI-automatisering de eerste impressie van kandidaten negatief beïnvloedt.

“Tegelijkertijd is dat ook een zwaard dat aan twee kanten snijdt. De eerste onderzoeken over het gebruik van AI in rekruteringsprocessen zijn volop aan de gang en tonen aan dat het inzetten van AI-automatisering de eerste impressie van kandidaten negatief beïnvloedt, omdat hun potentiële werkgever vaak als te weinig menselijk wordt gezien. Hierdoor daalt de attractiviteit van de organisatie, wat in een schaarse markt het omgekeerde is van wat een bedrijf wenst te bereiken.”

 

Bias

 

Ook wat betreft bias in AI zijn er nog wel wat hindernissen te nemen, zegt Charlotte. “De belofte is dat het bias-probleem in AI almaar kleiner zal worden, maar daar merken we voorlopig niks van. Integendeel, het lijkt zelfs nog toe te nemen met zelflerende systemen, waar bias net kan versterkt worden. Dat komt allicht omdat er veel data gebruikt worden die ver van onze cultuur en onze leefwereld af staan. Dat is ook een van de belangrijkste redenen waarom bedrijven voorzichtig moeten zijn met AI. De risico’s die bias meebrengt en de backlash die kan ontstaan als het fout gaat, bijvoorbeeld bij CV-screenings, zijn behoorlijk groot.”

Wat ook samenhangt met bias en AI zijn de zorgen rond – uiteraard – dataprivacy. “Data is ons hoogste goed”, zegt Nikola. “We zouden daar heel zorgvuldig mee moeten omgaan, maar iedereen post volop op LinkedIn, Facebook en Instagram. Wat weerhoudt AI om die data te gebruiken om een oordeel over jou te vellen? Als je een dronken foto op Instagram zet, wat zegt dat dan over jou? Dat je een goede netwerker bent? Of dat je een potentieel alcoholprobleem hebt? Daar heb je dan het black box-probleem: het systeem zal beslissen zonder dat we weten hoe. Of nog: stel dat een vrouw zo’n foto post. Zal het systeem dan een ander oordeel vellen dan bij een man?”

Gaan we kandidaten uitsluiten die een bepaalde krant lezen of naar bepaalde tv-programma’s kijken?

“Of je kunt het nog verder drijven”, aldus Charlotte. “Gaan we voor bepaalde jobs enkel mensen met blauwe ogen selecteren? Of gaan we kandidaten uitsluiten die een bepaalde krant lezen of naar bepaalde tv-programma’s kijken? Vandaag is er bias op het gebied van leeftijd, geslacht of afkomst, maar je kunt dat doortrekken naar honderden andere parameters.”

 

Zwarte doos

 

De oplossingen om die bias in te perken, bestaan wel, maar ze moeten ook geïmplementeerd worden en ze brengen ook zo hun eigen problemen mee, aldus Nikola. “Sowieso is het cruciaal dat de mens de controle houdt over finale beslissingen, zodat je nog op tijd kan ingrijpen.
Daarnaast is het zeker belangrijk om met zo veel mogelijk lokale data te werken en die ook te auditen op bias, bijvoorbeeld door een soort ethische commissie.
Het lijkt me ook noodzakelijk om de teams die het algoritme bouwen zo divers mogelijk te maken. De realiteit is echter dat het inzetten van die oplossingen zo’n complexe situatie gaat creëren dat de finale beslissing van het systeem niet meer uit te leggen valt. Dat is dus het black box-probleem: niemand weet nog hoe het AI-systeem aan zijn oplossing is gekomen. Terwijl een duidelijke link tussen input en output absoluut noodzakelijk is voor een brede acceptatie van AI.”

Het black box-probleem: niemand weet nog hoe het AI-systeem aan zijn oplossing is gekomen. Terwijl een duidelijke link tussen input en output absoluut noodzakelijk is voor een brede acceptatie van AI.

Wat AI in HR betreft, is de situatie vandaag min of meer vergelijkbaar met die van de zelfrijdende auto, zegt Nikola. “In principe is die er al. Zelfrijdende auto’s bestaan, ze kunnen rijden en sturen en hun weg vinden, maar ze zijn eigenlijk nog niet klaar voor praktisch gebruik. Er zijn nog te veel onverwachte en onvoorspelbare parameters om rekening mee te houden. Zo is het met HR ook. De mens is een ongelooflijk complex ecosysteem, vaak nog te complex voor machines om te doorgronden. Je merkt bijvoorbeeld ook aan taalmodellen dat er nog wel wat werk aan de winkel is. Dat een AI-systeem Nederlands kan praten, betekent nog niet dat het een cultuur of waarden kan doorgronden.”

 

Gidscontinent

 

De Europese Unie heeft verschillende toepassingen van AI een risicoscore meegegeven in de AI Act van mei 2024. HR en rekrutering scoren daarop “high risk”, de op een na hoogste risicoklasse. Ook dat toont aan dat menselijke supervisie van AI absoluut nodig blijft, aldus Charlotte. “Ik vind dat de EU ook uitstekend wetgevend werk doet rond AI. Wij zijn allicht het continent met de meest vooruitstrevende wetten op dat gebied. Europa onderscheidt zich. En ja, uiteraard brengt dat het gevaar mee dat we door China of de USA voorbijgestoken worden, maar ook in die regio’s hoor ik steeds meer stemmen opgaan om AI te reguleren. Je kunt het ook omdraaien: misschien zijn wij over enkele jaren het “gidscontinent” voor de andere werelddelen en kunnen we zo naar de kop van het peloton schieten.”

De impact van AI op duurzaamheid wordt nog onderschat. Als we voor alles AI gebruiken, gaan we gigantische hoeveelheden extra stroom nodig hebben.

AI breed invoeren binnen HR-dienstverlening zal niet alleen met technische en ethische obstakels gepaard gaan, maar ook met verschillende praktische problemen, menen beide HR-specialisten. Niet in de laatste plaats de weerstand van de mens zelf.
“Ik denk dat daar toch een cultuurverandering voor nodig zal zijn”, zegt Nikola. “En die zal tijd vragen. De impact van AI situeert zich op alle niveaus van de organisatie. Als HR beslist om een early adopter te zijn, wil dat niet zeggen dat de rest van de business en de managers even enthousiast zijn, want het vermindert hun impact en hun rol in de finale beslissingen. Bovendien: AI steunt heel erg op data. Vaak data uit andere landen, andere culturen of andere tijden. Die data implementeren en toepassen op je eigen, unieke situatie is erg lastig. En last but not least: de impact van AI op duurzaamheid wordt nog onderschat. Als we voor alles AI gebruiken, gaan we gigantische hoeveelheden extra stroom nodig hebben.”

 

ChatGPT weet het beter

 

Vandaag de dag worden al heel veel experimenten uitgevoerd met AI zonder dat de risico’s hiervan goed ingeschat worden, klinkt het unisono bij onze twee gesprekspartners. “AI vereist nog altijd een kritische geest”, zegt Charlotte. “Het is vaak al té perfect, wat kan leiden tot intoleranties in de maatschappij. Als ChatGPT altijd het perfecte antwoord kan geven, zullen we dat ook voortdurend van onze gesprekspartners verwachten. Of het leidt tot intolerantie ten opzichte van “de imperfecte mens”. AI antwoordt perfect, reageert perfect, ziet er perfect uit, … Wie wil nog de moeite doen om tot antwoorden te komen via menselijke interactie, als een machine dat net zo goed kan met één druk op de knop? Dat kan ook leiden tot een tunnelvisie en minder tolerantie in de maatschappij. Een must read is ‘Bonjour ChatGPT’ van Louis de Diesbach, waarin hij schrijft over de risico’s van het vermenselijken van machines en de ethische kaders over interacties met technologie.”

 

Hudson is sponsor van het Executive Forum 2024.

Recente artikelen

Wouter Van Linden, Head of HR bij Waterland Private Equity
Leden Lounge

Tijdens ons gesprek met Wouter Van Linden, Head of HR bij Waterland Private Equity, hoorden we een aantal atypische uitspraken in vergelijking met wat andere CHRO’s ons vertellen in België.

Niels Verheyen, financieel directeur Bouw en Projectontwikkeling en Django Liénart, CFO bij Willemen Groep
Interviews

We ontmoeten ‘jong geweld’ in finance bij Willemen Groep: Django Liénart, CFO, en Niels Verheyen, financieel directeur Bouw en Projectontwikkeling. Het dynamische duo vertelt vol passie over hun finance-carrière bij een van de grotere familiale bouwgroepen in België.

MELD U AAN VOOR DE NIEUWSBRIEF

  • Maandelijks
  • Laatste nieuwe content
  • Aankomende events
  • Uitschrijven altijd mogelijk

Agenda

Elke valkuil vormt het onderwerp van een mentoringsessie, gegeven door verrassende sprekers, professoren in leiderschap en Ambits-mentoren. Kies de 3 valkuilen die voor u of een medewerker relevant zijn.

Partners

Buitengewoon inspirerend en verfrissend. Ideaal voor zelfreflectie en om nieuwe ideeën op te doen.