Blog

Etnisch profileren

Etnisch profileren mag niet. Niet alleen omdat het discriminatie is. We moeten signalen leren zien voor wat ze zijn: vermoedens, geen feiten.

Op de site van RTL Nieuws staat het verhaal van Fatma. Haar toeslag voor de kinderopvang werd stopgezet. De toeslag die ze eerder kreeg werd een schuld en er werd beslag gelegd op haar loon.

De rubriek Digitaal verdwaald toont opzienbarende en frustrerende ervaringen in de digitale wereld. Zelf een ervaring gehad? Mail ons!

Fatma raakte haar tweede baan kwijt, omdat ze geen oppas kon krijgen voor haar kinderen. En als ze naar de rechter gaat, moet ze procederen tot aan de Raad van State voor ze gelijk krijgt. Fatma’s verhaal staat in de context van het onderzoek naar het vermoeden dat mensen met een tweede nationaliteit op grote schaal slachtoffer werden van ‘etnisch profileren’.

Etnisch profileren is selecteren op zichtbare minderheden. Dat mag niet. We ervaren het als onrechtvaardig om als individu te worden afgerekend op kenmerken van een groep. En het gelijkstellen van samenhang met oorzaak is een typische denkfout. De Amerikaanse staat Illinois stuurde ooit bijna naar ieder kind boeken, omdat kinderen uit een huis met veel boeken betere studieprestaties hebben. Maar ook kinderen die helemaal niet in die boeken keken bleken betere studieprestaties te hebben. De werkelijke oorzaak, van zowel veel boeken als goed leren, ligt waarschijnlijk bij de ouders.

Het risico op dit soort denkfouten is inherent aan werken met fraude-profielen. En dat doet de Belastingdienst sinds 2013. Want een toeslag krijg je als voorschot. En dat is een volautomatisch proces. Maar de Bulgarenfraude uit 2013 maakte duidelijk dat zo’n toeslag achteraf niet altijd is terug te vorderen. De reactie daarop was om met een algoritme de mensen te selecteren die misschien fraude plegen. De vraag is nu: is daar sprake van etnisch profileren? Die etniciteit kan de Belastingdienst min of meer afleiden uit de tweede nationaliteit van mensen. Een vreemde nationaliteit werd, om heel andere redenen, tot 2015 bijgehouden in het bevolkingsregister. En de Belastingdienst krijgt die gegevens automatisch.

Wat het verhaal zo leerzaam maakt is dat het een paar ideeën die vaak abstract blijven zo duidelijk maakt. Eén daarvan is bias – hoe onze vooroordelen in data terugkomen – en zelfversterkend werken. Fatma verliest haar baan. En ze heeft opeens duizenden euro’s schuld. Dit zijn eerst alleen gevolgen van een verkeerde conclusie op basis van een risico-inschatting. Maar zodra die gevolgen statistieken worden en meegaan in de volgende risico-inschatting, versterken ze weer de kans op een verkeerde conclusie. De werkelijke oorzaak is de fout van de Belastingdienst.

Die fout – of nu blijkt dat het om etnisch profileren ging of niet – is signalen niet zien voor wat ze zijn: vermoedens die aanleiding kunnen zijn voor onderzoek, geen feiten op basis waarvan je iemands leven overhoop kunt halen. Want hier gaat het om een vreemde nationaliteit, waardoor heel duidelijk kan blijken dat er sprake is van etnisch profileren. Vaker is dit subtieler en vaker is dit breder dan alleen etniciteit.

Arjan Widlak is directeur en onderzoeker bij Stichting Kafkabrigade, een organisatie die onnodige bureaucratie opspoort en oplost. Arjan publiceert regelmatig over de impact van informatietechnologie op het openbaar bestuur.

Deze bijdrage is eerder (1 juni 2019) geplaatst in Het Financieele Dagblad

  • Mr A.F. le Gras | 31 augustus 2019, 16:54

    Leerzaam ? Jazeker, maar voor welk doel? Ter leringe ende vermaak? Ik mag hopen van niet want het regent inmiddels van dit soort voorbeelden. En laat niemand denken dat hij hiervan gevrijwaard zal blijven, want het blijft echt niet bij etnisch profileren. Arjan, ga vooral door met je fantastische werk, maar zorg wel voor méér tanden, want het gebruik van algoritmen voor geautomatiseerde besluitvorming door de overheid kan maar beter helemaal gestopt worden.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren