Overslaan en naar de inhoud gaan
(advertentie)

CPB presenteert Selectiviteitsscan voor algoritmes

algoritmes

Het Centraal Planbureau (CPB) heeft een nieuwe methode ontwikkeld om selectie-algoritmes van de overheid te toetsen op indirect onderscheid tussen groepen. De zogenoemde Selectiviteitsscan maakt het mogelijk om te onderzoeken of algoritmes bepaalde groepen onevenredig vaak selecteren, zonder dat overheidsorganisaties zelf toegang krijgen tot gevoelige persoonsgegevens. Volgens het CPB is dat nodig, omdat algoritmes nu onvoldoende worden gecontroleerd en zo onbedoeld ongelijke behandeling kunnen veroorzaken.

Overheidsinstanties gebruiken steeds vaker algoritmes om dossiers te selecteren of risico’s in te schatten. Dat kan de uitvoering efficiënter maken, maar brengt ook risico’s met zich mee. De controle op de uitwonendenbeurs liet recent zien dat algoritmische selectie kan leiden tot ongelijke behandeling. Toetsing is echter lastig, omdat gegevens zoals leeftijd of migratieachtergrond vaak niet mogen worden gebruikt. De Selectiviteitsscan biedt volgens het CPB een manier om dit spanningsveld te doorbreken.

In de praktijk werkt de methode zo dat organisaties hun selectie uploaden naar de beveiligde microdataomgeving van het Centraal Bureau voor de Statistiek (CBS). Een onafhankelijke partij voert daar de analyse uit. De organisatie ontvangt alleen de uitkomsten, bijvoorbeeld in tabellen en figuren, terwijl de onderliggende persoonsgegevens afgeschermd blijven.

Praktijkvoorbeeld

Als voorbeeld heeft het CPB de Selectiviteitsscan toegepast op de Sollicitatiescan WW van het UWV. Dit algoritme ondersteunt medewerkers bij het selecteren van dossiers om te beoordelen of iemand extra ondersteuning nodig heeft bij het solliciteren. Uit de analyse blijkt dat zowel het algoritme als de medewerkers selecties maken die afwijken van een neutrale referentiegroep. In die referentiegroep heeft 37 procent van de personen een migratieachtergrond. Bij de selectie door het algoritme is dat 38 procent, bij de selectie door medewerkers 43 procent. Volgens het CPB zijn bij selectieprocessen altijd verschillen te verwachten en zijn die in dit geval bij het algoritme kleiner dan bij menselijke selectie. De scan laat zien dát er verschillen zijn; het duiden en rechtvaardigen daarvan is aan de eigenaar van het algoritme.

Zorgen over gevolgen

Er zijn ook zorgen over de potentiële gevolgen van de Selectiviteitsscan. Alexander Laufer van Amnesty International waarschuwt in een LinkedIn-bericht dat de publicatie het risico met zich meebrengt dat overheidsinstanties de Selectiviteitsscan lezen als een manier om onderscheid te legitimeren. Hij wijst erop dat het CPB stelt dat onderscheid maken met algoritmes is toegestaan als dit kan worden gerechtvaardigd. In de context van risicoprofilering door de overheid is onderscheid op grond van ras of migratieachtergrond, direct of indirect, volgens Laufer echter praktisch nooit gerechtvaardigd.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in