Over deze case: Op verzoek van de klant zijn bedrijfsnaam en specifieke cijfers geanonimiseerd. Gezien de gevoeligheid van AI in recruitment en hun positie in de markt, willen zij hun aanpak niet volledig publiek maken.
Tienduizenden CV’s per jaar, en geen tijd om te lezen
De operations director van dit recruitment bureau, gespecialiseerd in tech-profielen, stond voor een bekend probleem. “We krijgen gemiddeld meer dan honderd sollicitaties per vacature. Daarvan zijn er misschien vijftien relevant. Maar om die vijftien te vinden, moet je wel allemaal bekijken.”
Haar team van recruiters besteedde collectief tientallen uren per week aan eerste screening. “Het is werk dat niemand leuk vindt, maar waar je geen fouten in mag maken. Eén goede kandidaat missen kan een klant kosten.”
De oplossing leek voor de hand te liggen: AI. “Elke week belden er wel twee vendors. ‘Onze AI screent CV’s in seconden.’ ‘Bespaar 80% van je tijd.’ Het klonk perfect.”
Maar toen ze doorvroeg, kwam er een ander verhaal.
”Hoe weten we dat het niet discrimineert?”
Bij de eerste vendor-demo stelde ze de vraag die ze bij elke volgende demo zou herhalen: “Hoe weten we dat jullie AI niet discrimineert op leeftijd, geslacht of achtergrond?”
“De verkoper begon te stamelen over ‘geavanceerde algoritmes’ en ‘getraind op miljoenen CV’s’. Maar hij kon niet uitleggen hoe het systeem tot een beslissing kwam. En hij kon al helemaal niet uitleggen wat er zou gebeuren als een afgewezen kandidaat zou vragen waarom.”
Dit was geen theoretisch probleem. De AVG geeft sollicitanten het recht om te weten hoe geautomatiseerde beslissingen over hen worden genomen. En de Wet toezicht gelijke behandeling verbiedt discriminatie in werving en selectie—ook als een algoritme het doet.
“Onze juridische afdeling was duidelijk: als we niet kunnen uitleggen waarom iemand is afgewezen, mogen we de tool niet gebruiken.”
“Elke AI-vendor beloofde 80% tijdsbesparing. Niemand kon uitleggen hoe we compliant zouden blijven.”
De vraag achter de vraag
Toen dit bureau bij ons kwam, begonnen we niet met technologie. We begonnen met de vraag: wat willen jullie eigenlijk oplossen?
Het antwoord was genuanceerder dan “CV’s screenen met AI”:
- Tijdsbesparing, maar niet ten koste van kwaliteit
- Consistentie in hoe CV’s worden beoordeeld
- Uitlegbaarheid voor kandidaten én voor de juridische afdeling
- Controle behouden bij de recruiters—AI als hulpmiddel, niet als vervanger
“Jullie stelden vragen die de vendors niet stelden. Niet ‘welke AI-tool willen jullie?’ maar ‘wat mogen jullie eigenlijk automatiseren?’”
Suggesties in plaats van beslissingen
De kern van onze oplossing: de AI neemt geen beslissingen. De AI doet suggesties die recruiters moeten bevestigen.
Hoe het werkt:
- CV komt binnen en wordt automatisch geparsed
- AI vergelijkt het CV met de vacature-eisen en geeft een match-score
- Bij elke score staat een uitleg: “Match op Python (5 jaar ervaring gevraagd, 7 jaar gevonden)” of “Mismatch op locatie (remote gevraagd, alleen on-site beschikbaar)”
- Recruiter ziet de suggestie en beslist zelf om door te gaan of af te wijzen
- Elke beslissing wordt gelogd met reden
Het cruciale verschil: de AI wijst nooit automatisch af. Ook een CV met een lage score komt bij de recruiter terecht—alleen onderaan de lijst.
“Dit was de doorbraak. Onze juristen accepteerden het omdat we konden aantonen dat een mens altijd de finale beslissing neemt. En we konden bij elke afwijzing uitleggen waarom.”
“De AI zegt niet ‘nee’. De AI zegt ‘kijk hier misschien als laatste naar, en dit is waarom’.”
Geen black box, maar een glazen doos
Transparantie was een harde eis. We bouwden het systeem zo dat elke stap uitlegbaar is:
Scoring op basis van expliciete criteria Geen mysterieus “fit-percentage”, maar concrete matches op vaardigheden, ervaring, en beschikbaarheid. De criteria komen rechtstreeks uit de vacaturetekst.
Geen training op historische data Veel AI-recruitment tools zijn getraind op wie er in het verleden is aangenomen. Dat bouwt bestaande bias in. Ons systeem vergelijkt alleen met de gestelde eisen—niet met wie er “typisch” wordt aangenomen.
Audit trail voor elke kandidaat Voor elke sollicitant is terug te zien: welke score kreeg het CV, welke uitleg hoorde daarbij, wie heeft het beoordeeld, en wat was de beslissing. Perfect voor AVG-verzoeken.
Regelmatige bias-checks We analyseren periodiek de data: worden bepaalde groepen systematisch lager gescoord? Worden ze vaker of minder vaak doorgelaten door recruiters? De rapportages gaan naar HR en juridische zaken.
De techniek onder de motorkap
Voor de technisch geïnteresseerden—dit is wat we bouwden:
- FastAPI backend voor snelle CV-verwerking en API’s richting hun ATS
- LangChain voor gestructureerde prompts die uitlegbare output genereren
- OpenAI API (GPT-4) voor de daadwerkelijke CV-analyse
- PostgreSQL voor de audit trail en rapportages
- React frontend geïntegreerd in hun bestaande recruiter-dashboard
- AWS hosting met data in EU-regio (AVG-vereiste)
De integratie met hun bestaande Applicant Tracking System betekende dat recruiters niet van tool hoefden te wisselen. De AI-suggesties verschijnen gewoon in hun vertrouwde interface.
Resultaten
De cijfers spreken voor zich:
- Significante tijdsbesparing op eerste screening per recruiter
- Snellere time-to-hire door snellere eerste respons
- Externe audit doorstaan door een gespecialiseerd bureau
- Adoptie door partners in hun netwerk die dezelfde oplossing wilden
Maar waar ze het meest trots op zijn: “We hebben nog geen enkele klacht gehad van een kandidaat over hoe ze zijn beoordeeld. Omdat we het kunnen uitleggen.”
“Dit is AI zoals het hoort: het maakt ons beter in ons werk, niet overbodig. En we kunnen ‘s nachts slapen omdat we weten dat het eerlijk is.”
Lessons learned
-
Compliance eerst, technologie daarna
Begin niet met “welke AI-tool kopen we?” maar met “wat mogen we automatiseren?” Die vraag bepaalt de oplossingsrichting. -
Uitlegbaarheid is geen nice-to-have
In recruitment is het een harde eis. Maar ook in andere domeinen: als je niet kunt uitleggen waarom de AI iets doet, kun je het niet verantwoorden. -
AI als assistent, niet als beslisser
De mens in de loop houden is niet alleen ethisch juist—het maakt adoptie ook makkelijker. Recruiters voelden zich geholpen, niet vervangen. -
Bias zit overal, ook in “neutrale” data
Trainen op historische hiring data reproduceert historische bias. Soms is de beste AI-oplossing er eentje die niet leert van het verleden. -
Integratie > standalone tool
Niemand wil een extra tool. De AI-suggesties verschijnen in het systeem dat recruiters al gebruiken. Dat maakte adoptie vanzelfsprekend.