Bouw zoekt vrouw

Als er 700 mannen en 300 vrouwen reageren op een vacature bij een bouwbedrijf en de verhouding in de selectie wijkt daar sterk van af, dan roept dat natuurlijk vraagtekens op. Want ‘vrouwen kunnen niet bouwen’, daar zitten we niet op te wachten, maar ‘bouw zoekt vrouw’ leidt ook tot gefronste wenkbrauwen.

De vraag komt op hoe de beste kandidaat wordt geselecteerd en daarmee ook wat de definitie van ‘beste kandidaat’ is. Zeker bij de toepassing van algoritmes in de selectie is die lastige definitiekwestie essentieel. Met algoritmes zouden we transparanter kunnen laten zien hoe de selectie werkt, maar dat kan juist weer wantrouwen opwekken. Al is het maar omdat pijnlijk zichtbaar wordt dat volledige objectiviteit niet haalbaar of aantoonbaar is. De perfecte wereld bestaat zelfs bij zeer geavanceerde algoritmes niet, onder meer omdat ze vaak gebaseerd zijn op input van mensen of historische gegevens.

Mede daarom is het lastig toezicht te houden op de objectiviteit van algoritmes. In de deeltjesfysica – door velen gezien als de bakermat van grootschalige data-analyse – zijn er grofweg drie manieren om zogenaamde ‘bias’ te identificeren. De eerste is simulatie. Voor eenvoudige situaties is dat misschien toepasbaar op werving & selectiealgoritmes, maar meestal is de werkelijkheid te complex om te kunnen simuleren.

De tweede optie is het gebruik van willekeurig gekozen datapunten in een ‘minimum bias dataset’ om de resultaten van het algoritme te kunnen vergelijken met een nulmeting. Dit komt erop neer dat een HR-manager ook een random groep kandidaten zou moeten aannemen. Ook geen haalbare kaart dus.

De derde manier is redundantie, het vergelijken van de uitkomsten van verschillende methoden. Denk bijvoorbeeld aan het bepalen van de oppervlakte van een driehoek, wat mogelijk is als je twee hoeken kent en de lengte van één zijde, of als je geen hoeken kent maar de lengtes van alle zijden. Mochten de twee methodes resulteren in verschillende antwoorden, dan zit er een fout in één van de metingen, of het model klopt niet en het is dus helemaal geen driehoek. Deze methode biedt enig perspectief voor de selectie-algoritmes. We kunnen meerdere methoden toepassen en de resultaten met elkaar vergelijken. Misschien dat we door die vergelijking zelfs komen tot een betere definitie van ‘de beste kandidaat’. Nadeel is wel dat we twee methodes vergelijken, we kunnen dus iets zeggen over de verschillen tussen de methodes, maar hebben geen volledig objectieve referentie.

Vinden we bovenstaande goed genoeg in ons streven naar objectieve selectie? Er lijkt geen andere optie. Dat mag dan frustrerend zijn, die optie hadden we ook niet toen mensen – met hun aantoonbare weeffouten – de selectie maakten. Misschien is dat wel een onderschat neveneffect van de opkomst van algoritmes: dat pijnlijk duidelijk wordt hoeveel bias de mens heeft en hoe dat de wereld raakt.

Sander Klous is hoogleraar Big Data Ecosystems, UvA en partner bij KPMG

Deze bijdrage is te vinden in iBestuur magazine 29

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren