De stille verschuiving van AI in selectie
Er is iets aan het verschuiven in de manier waarop we selecteren. Die verandering rond AI in selectie gebeurt alleen niet op een manier die direct zichtbaar is. Lange tijd was selectie vooral een menselijk proces, gebaseerd op gesprekken, ervaring en intuïtie. We vertrouwden erop dat we in staat waren om iemand goed in te schatten, om potentie te herkennen en gedrag te duiden. Soms werkte dat ook. Maar net zo vaak bleek het oordeel afhankelijk van de context, van degene die tegenover je zat, of simpelweg van het moment. Dat ongemak is nooit helemaal verdwenen, maar we hebben het wel lang geaccepteerd.
Waarom AI in selectie voelde als vooruitgang
Toen technologie het mogelijk maakte om systematischer naar gedrag te kijken, en vooral toen AI begon met het herkennen van patronen in data, ontstond er iets dat voelde als vooruitgang. Ineens konden we beslissingen nemen die consistenter waren, sneller tot stand kwamen en in veel gevallen ook beter voorspelden wie succesvol zou zijn. Voor veel organisaties werd AI in selectie daarmee niet alleen interessant, maar ook een logische stap. Als iets aantoonbaar beter werkt dan wat je gewend was, is er weinig reden om het niet te gebruiken.
Voorspellen is nog geen begrijpen
Maar precies daar zit ook een ongemakkelijke vraag, die lange tijd op de achtergrond is gebleven. Want wat betekent het eigenlijk dat iets werkt? Wanneer een model patronen vindt die samenhangen met performance, kunnen we vaststellen dat het voorspellende waarde heeft. Dat is relevant en in veel gevallen ook praktisch bruikbaar. Maar daarmee is nog niet duidelijk wat er precies gemeten wordt, of waarom die samenhang bestaat. Het verschil lijkt subtiel, maar is in werkelijkheid fundamenteel. Een systeem kan namelijk prima voorspellen zonder dat het begrijpt wat het doet. En zolang de uitkomst beter is dan het alternatief, voelt dat misschien niet als een probleem.
De AI Act verandert de spelregels voor selectie
Totdat je wordt gevraagd om uit te leggen waarom je een bepaalde beslissing hebt genomen. En dat moment komt steeds vaker dichterbij. Niet alleen omdat organisaties kritischer worden, maar ook omdat de context verandert. Met de invoering van de Europese AI Act, die in 2024 van kracht is geworden en waarvan de belangrijkste verplichtingen in 2026 ingaan, verschuift de norm waar selectie aan moet voldoen. Voor AI in selectie betekent dat een duidelijke verandering: systemen die worden ingezet in recruitment en selectie vallen in veel gevallen onder de categorie high-risk toepassingen. Dat betekent niet dat ze niet meer gebruikt mogen worden, maar wel dat er hogere eisen worden gesteld aan hoe ze worden ingezet en verantwoord.
Niet alleen de uitkomst telt
Het gaat daarbij niet alleen om de vraag of een systeem goed voorspelt, maar ook om de manier waarop het tot die voorspelling komt en hoe zorgvuldig dat proces is ingericht. Organisaties moeten kunnen laten zien dat ze hun systemen begrijpen, dat ze risico’s beheersen en dat er sprake is van menselijke controle. Dat klinkt logisch, maar wordt complex zodra je werkt met modellen die vooral geoptimaliseerd zijn op uitkomst en niet per se op uitlegbaarheid.
De spanning tussen slim en uitlegbaar
Daar ontstaat een spanning die je niet direct oplost door simpelweg betere technologie te gebruiken. Veel van de tools die de afgelopen jaren zijn ontwikkeld, zijn juist sterk omdat ze patronen ontdekken die voor mensen moeilijk zichtbaar zijn. Maar juist dat maakt het lastiger om precies te reconstrueren wat er gebeurt en waarom een bepaalde score tot stand komt. Juist bij AI in selectie wordt dan zichtbaar hoe afhankelijk je bent van je vermogen om het proces te duiden. Zolang alles goed gaat, lijkt dat geen probleem. Maar zodra er vragen worden gesteld – door een kandidaat, een manager of een toezichthouder – verandert dat direct.
Ook meten zelf verandert
Die spanning wordt versterkt doordat ook de context van meten zelf verandert. Kandidaten beginnen, voorzichtig maar merkbaar, gebruik te maken van AI bij het invullen van assessments. Dat betekent niet dat alle uitkomsten ineens onbetrouwbaar zijn, maar wel dat antwoorden minder vanzelfsprekend een directe afspiegeling zijn van gedrag. Ze worden deels ook een reflectie van hoe goed iemand het systeem begrijpt en weet te gebruiken. Tegelijkertijd verandert het werk zelf in hoog tempo. Het wordt internationaler, digitaler en steeds meer afhankelijk van samenwerking en interactie met technologie. Gedrag laat zich daardoor minder eenvoudig los zien van de context waarin het ontstaat.
Een hogere lat voor AI in selectie
Als je die ontwikkelingen bij elkaar optelt, wordt duidelijk dat de lat niet zozeer verschuift omdat technologie tekortschiet, maar omdat onze verwachtingen veranderen. Het is niet langer voldoende om te kunnen zeggen dat een systeem beter voorspelt dan wat je eerder gebruikte. Bij AI in selectie wordt de vraag steeds vaker of je begrijpt wat je meet, of je kunt uitleggen hoe je tot een beslissing komt en of je bereid bent die beslissing te verantwoorden.
De kern van selectie komt bloot te liggen
Voor HR en selectie betekent dat een verschuiving die dieper gaat dan de keuze voor een nieuwe tool. Het raakt aan de kern van wat selectie is: het nemen van beslissingen over mensen. Beslissingen die niet alleen effectief moeten zijn, maar ook uitlegbaar, consistent en verdedigbaar. En misschien is dat wel de belangrijkste verandering die de AI Act zichtbaar maakt. Niet dat we anders gaan meten, maar dat we niet langer kunnen volstaan met meten alleen.
De vraag die overblijft
Uiteindelijk blijft er een vraag over die eenvoudiger klinkt dan hij is. Niet of je kunt voorspellen wie succesvol zal zijn, maar of je begrijpt wat je meet en of je verantwoordelijkheid wilt nemen voor de beslissing die daaruit volgt. Dat is uiteindelijk de echte toets voor het gebruik van AI in selectie.



















