Data en ai
Blog

‘Discriminerend’ algoritme

Hoewel algoritmes niet meer zijn dan wiskundige formules, zijn ze niet altijd neutraal, noch hebben ze altijd gelijk.

We hebben de neiging menselijke eigenschappen aan algoritmes toe te dichten, maar het zijn niet meer dan wiskundige formules die we gebruiken om complexe berekeningen te maken.

Toch wordt met achterdocht naar algoritmes gekeken. Ze zouden discriminatie in de hand werken en burgers bij voorbaat verdacht maken. D66 en het CDA pleitten onlangs zelfs voor een speciale waakhond naar aanleiding van berichtgeving van de NOS over het algoritmegebruik van de overheid.

De collectieve angst voor algoritmes die lijkt te zijn ontstaan is echter onterecht. We moeten het gebruik van algoritmes door de overheid juist toejuichen. Ze ondersteunen overheden bij het opsporen en voorspellen van bijvoorbeeld fraude of geven inzicht in de kans dat iemand in de schuldhulpverlening dreigt te komen. Dit is geen nieuw fenomeen, maar de gebruikte algoritmes zijn wel complexer geworden.

Desondanks blijven het algoritmes, getraind op basis van door mensen ingegeven data. Toen in Florida een algoritme om recidive te voorspellen ten onrechte Afro-Amerikanen een hoger risico toekende, was dat niet omdat het algoritme racistisch was. De bias zat in de dataset waarop het algoritme was getraind en was daarmee een afspiegeling van bestaande vooroordelen.

Ook bij het onterecht stopzetten van toeslagen door de Belastingdienst, als gevolg van verondersteld etnisch profileren, zijn mogelijk bestaande vooroordelen onderdeel gaan uitmaken van het gebruikte algoritme. Na de Bulgarenfraude in 2013 is de Belastingdienst extra scherp gaan controleren door te werken met fraude-profielen. Hierdoor kan gerichter worden gecontroleerd om misbruik en fraude bij toeslagen tegen te gaan. In dit geval lijken er echter data te zijn gebruikt (over een tweede nationaliteit) die niet gebruikt hadden mogen worden. Daarnaast zijn vermoedens direct als feit geïnterpreteerd. Dit probleem ligt dieper in de organisatie dan het algoritme dat is gebruikt, maar heeft hier wel effect op.

Algoritmes zijn dus niet altijd neutraal, noch hebben ze altijd gelijk. Maar het alternatief waarin afwegingen door de mens worden gemaakt, is evenmin neutraal of altijd juist. Door te kijken naar patronen en verbanden in data zijn we juist in staat om bestaande vooroordelen bloot te leggen en besluitvorming te objectiveren.

Toch wordt al snel bij algoritmes het schrikbeeld opgeroepen van zelflerende en ondoorzichtige black boxes en computer says no-taferelen. Het bestempelen van algoritmes als ‘vierde macht’, door Marlies van Eck van de Universiteit Leiden (Trouw, 19 juni), versterkt dit schrikbeeld en verdient ook enige nuance.

In veel gevallen gaat het bij overheidsorganisaties om relatief eenvoudige algoritmes op basis van beperkte hoeveelheden data. Als vervolgens sprake is van onwaarschijnlijke combinaties of uitschieters in de data, wordt een onderzoek opgestart waarbij getoetst wordt of er daadwerkelijk iets aan de hand is. Van geautomatiseerd beslissen door het algoritme is geen sprake en binnen de huidige wet- en regelgeving – waaronder de AVG – zijn voldoende waarborgen om willekeur en discriminatie tegen te gaan.

Toch is het verstandig om ons bewust te zijn van de risico’s van het lukraak inzetten van algoritmes. Bewustzijn en begrip van de technologie zijn nodig om tot goede ethische afwegingen te komen binnen de huidige wetgeving. Politieke aandacht is nodig, maar doorschieten in toezichthouders of wetgeving zou het kind met het badwater weggooien.

Het gebruik van algoritmes en kunstmatige intelligentie biedt een enorm potentieel om maatschappelijke uitdagingen effectiever aan te pakken.

Christian Verhagen is senior adviseur bij Verdonck, Klooster & Associates en publiceert regelmatig over data en technologie in de publieke sector.

Deze bijdrage is eerder geplaatst in Trouw op 2 juli.

  • Ran Haase, gemeente Eindhoven | 16 juli 2019, 21:14

    Goede nuancering van het soms ietwat krampachtig gevoerde debat over verantwoord datagebruik. Ik denk dat politici en beleidsmakers vooral zoekende zijn naar de positie die zij in het debat zouden moeten innemen. Dit vergt wel een zeker kennisniveau over algoritmes. Hier kan nog een slag worden gemaakt.

  • Jan Hindrik Knot | 21 juli 2019, 14:58

    Een paar opmerkingen.

    Een algoritme is iets heel anders dan een wiskundige formule. Geloof me, ik heb er voor doorgeleerd.

    Het voorbeeld met de recidivegevallen in Florida deugt niet. Hier is geen sprake van een vooroordeel, maar van een empirisch feit. Recidive onder afro-amerikanen is hoger dan dan die van andere groepen.
    Als je maximaal fraude wil vinden, kun je niet om het feit heen dat onder bepaalde groepen fraude vaker voorkomt. Dat is de essentie van het gebruik van een algoritme met dit doel.

    Bij het inzetten van AI is het doel waarmee je inzet belangrijk. AI systemen hebben (nog) geen ingebouwde ethiek. En geen vooroordelen overigens.

    Als je het AANTAL gevonden fraudegevallen wil maximeren, zoekt het systeem de groep waar de pakkans het grootste is, gegeven empirische dat. Dat lijkt etnisch profileren, maar is het niet. Het AI kent het concept ‘etnisch’ niet eens.

    Als de OMVANG van de gevonden fraude wil maximeren, doet het systeem hetzelfde. En kom je waarschijnlijk heel ergens anders uit. Blaricum, Wassenaar, Bloemendaal?
    Als je het aantal gevallen van fraude wil TERUGDRINGEN moet je weer wat anders doen.

    Voordat je begint, stel eerste de vraag: “wat is eigenlijk mijn doel, WAAROM zet ik een algoritme in.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren