AI selecteert, HR mag het uitleggen

De stille verschuiving van AI in selectie

Er is iets aan het verschuiven in de manier waarop we selecteren. Die verandering rond AI in selectie gebeurt alleen niet op een manier die direct zichtbaar is. Lange tijd was selectie vooral een menselijk proces, gebaseerd op gesprekken, ervaring en intuïtie. We vertrouwden erop dat we in staat waren om iemand goed in te schatten, om potentie te herkennen en gedrag te duiden. Soms werkte dat ook. Maar net zo vaak bleek het oordeel afhankelijk van de context, van degene die tegenover je zat, of simpelweg van het moment. Dat ongemak is nooit helemaal verdwenen, maar we hebben het wel lang geaccepteerd.

Waarom AI in selectie voelde als vooruitgang

Toen technologie het mogelijk maakte om systematischer naar gedrag te kijken, en vooral toen AI begon met het herkennen van patronen in data, ontstond er iets dat voelde als vooruitgang. Ineens konden we beslissingen nemen die consistenter waren, sneller tot stand kwamen en in veel gevallen ook beter voorspelden wie succesvol zou zijn. Voor veel organisaties werd AI in selectie daarmee niet alleen interessant, maar ook een logische stap. Als iets aantoonbaar beter werkt dan wat je gewend was, is er weinig reden om het niet te gebruiken.

Voorspellen is nog geen begrijpen

Maar precies daar zit ook een ongemakkelijke vraag, die lange tijd op de achtergrond is gebleven. Want wat betekent het eigenlijk dat iets werkt? Wanneer een model patronen vindt die samenhangen met performance, kunnen we vaststellen dat het voorspellende waarde heeft. Dat is relevant en in veel gevallen ook praktisch bruikbaar. Maar daarmee is nog niet duidelijk wat er precies gemeten wordt, of waarom die samenhang bestaat. Het verschil lijkt subtiel, maar is in werkelijkheid fundamenteel. Een systeem kan namelijk prima voorspellen zonder dat het begrijpt wat het doet. En zolang de uitkomst beter is dan het alternatief, voelt dat misschien niet als een probleem.

De AI Act verandert de spelregels voor selectie

Totdat je wordt gevraagd om uit te leggen waarom je een bepaalde beslissing hebt genomen. En dat moment komt steeds vaker dichterbij. Niet alleen omdat organisaties kritischer worden, maar ook omdat de context verandert. Met de invoering van de Europese AI Act, die in 2024 van kracht is geworden en waarvan de belangrijkste verplichtingen in 2026 ingaan, verschuift de norm waar selectie aan moet voldoen. Voor AI in selectie betekent dat een duidelijke verandering: systemen die worden ingezet in recruitment en selectie vallen in veel gevallen onder de categorie high-risk toepassingen. Dat betekent niet dat ze niet meer gebruikt mogen worden, maar wel dat er hogere eisen worden gesteld aan hoe ze worden ingezet en verantwoord.

Niet alleen de uitkomst telt

Het gaat daarbij niet alleen om de vraag of een systeem goed voorspelt, maar ook om de manier waarop het tot die voorspelling komt en hoe zorgvuldig dat proces is ingericht. Organisaties moeten kunnen laten zien dat ze hun systemen begrijpen, dat ze risico’s beheersen en dat er sprake is van menselijke controle. Dat klinkt logisch, maar wordt complex zodra je werkt met modellen die vooral geoptimaliseerd zijn op uitkomst en niet per se op uitlegbaarheid.

De spanning tussen slim en uitlegbaar

Daar ontstaat een spanning die je niet direct oplost door simpelweg betere technologie te gebruiken. Veel van de tools die de afgelopen jaren zijn ontwikkeld, zijn juist sterk omdat ze patronen ontdekken die voor mensen moeilijk zichtbaar zijn. Maar juist dat maakt het lastiger om precies te reconstrueren wat er gebeurt en waarom een bepaalde score tot stand komt. Juist bij AI in selectie wordt dan zichtbaar hoe afhankelijk je bent van je vermogen om het proces te duiden. Zolang alles goed gaat, lijkt dat geen probleem. Maar zodra er vragen worden gesteld – door een kandidaat, een manager of een toezichthouder – verandert dat direct.

Ook meten zelf verandert

Die spanning wordt versterkt doordat ook de context van meten zelf verandert. Kandidaten beginnen, voorzichtig maar merkbaar, gebruik te maken van AI bij het invullen van assessments. Dat betekent niet dat alle uitkomsten ineens onbetrouwbaar zijn, maar wel dat antwoorden minder vanzelfsprekend een directe afspiegeling zijn van gedrag. Ze worden deels ook een reflectie van hoe goed iemand het systeem begrijpt en weet te gebruiken. Tegelijkertijd verandert het werk zelf in hoog tempo. Het wordt internationaler, digitaler en steeds meer afhankelijk van samenwerking en interactie met technologie. Gedrag laat zich daardoor minder eenvoudig los zien van de context waarin het ontstaat.

Een hogere lat voor AI in selectie

Als je die ontwikkelingen bij elkaar optelt, wordt duidelijk dat de lat niet zozeer verschuift omdat technologie tekortschiet, maar omdat onze verwachtingen veranderen. Het is niet langer voldoende om te kunnen zeggen dat een systeem beter voorspelt dan wat je eerder gebruikte. Bij AI in selectie wordt de vraag steeds vaker of je begrijpt wat je meet, of je kunt uitleggen hoe je tot een beslissing komt en of je bereid bent die beslissing te verantwoorden.

De kern van selectie komt bloot te liggen

Voor HR en selectie betekent dat een verschuiving die dieper gaat dan de keuze voor een nieuwe tool. Het raakt aan de kern van wat selectie is: het nemen van beslissingen over mensen. Beslissingen die niet alleen effectief moeten zijn, maar ook uitlegbaar, consistent en verdedigbaar. En misschien is dat wel de belangrijkste verandering die de AI Act zichtbaar maakt. Niet dat we anders gaan meten, maar dat we niet langer kunnen volstaan met meten alleen.

De vraag die overblijft

Uiteindelijk blijft er een vraag over die eenvoudiger klinkt dan hij is. Niet of je kunt voorspellen wie succesvol zal zijn, maar of je begrijpt wat je meet en of je verantwoordelijkheid wilt nemen voor de beslissing die daaruit volgt. Dat is uiteindelijk de echte toets voor het gebruik van AI in selectie.

Vragen, opmerkingen of een andere kijk op dit onderwerp? Laat het hieronder weten en ga in gesprek met de auteur.

Ik heb een assessment vraag.

Plan een gesprek

Plan een demo

Plan een demo

Plan een gesprek

Evidence-based Selectiemethoden

Deze factsheet geeft een overzicht van de meest gebruikte (psychologische) selectiemethoden, zowel klassieke als moderne. De cijfers zijn gebaseerd op meta-analyses en dominante wetenschappelijke literatuur.

Methode Predictieve validiteit (r) Typische betrouwbaarheid
Cognitieve capaciteit (GMA test) .51 Hoog (.85-.95)
Werkproef .54 Hoog
(interbeoordelaars ≥.70)
Gestructureerd interview .51 Middel-hoog (.60–.75)
Ongestructureerd interview .18-.38 Laag-middel (.40–.55)
Integriteitstest .41 Hoog (α ≥.80)
Conscientieusheid (Big Five) .31 Middel-hoog (α ~.75–.85)
Job-kennistest .48 Hoog (≥.80)
Dienstjaren .18 Niet van toepassing
Video-/asynchroon interview (incl. AI) .30-.40 Goed bij structurering; algoritmisch variabel
Machine learning / algoritmische modellen .20-.50 Afhankelijk van dataset; generaliseerbaarheid beperkt
Serious games / game-based work samples .35-.50 Hoog bij objectieve metrics
Social media screening .00-.20 Laag en variabel

Assessment aanvragen

Direct bellen:
088 – 277 377 6

Cookie gebruik

Deze site maakt gebruik van cookies, zodat wij je de best mogelijke gebruikerservaring kunnen bieden. Cookie-informatie wordt opgeslagen in je browser en voert functies uit zoals het herkennen wanneer je terugkeert naar onze site en helpt ons team om te begrijpen welke delen van de site je het meest interessant en nuttig vindt.

This site uses cookies to provide you with the best possible user experience. Cookie information is stored in your browser and performs functions such as recognizing when you return to our site and helping our team understand which parts of the site you find most interesting and useful.