Data en ai
Nieuws

Aanbevelingen om beter toezicht te houden op inzet algoritmes

15 februari a.s. spreekt de Kamercommissie Digitale Zaken over de inzet van algoritmes en data-ethiek binnen de rijksoverheid. Volgens het Rathenau Instituut moet de overheid aanvullende maatregelen nemen bij de verantwoorde inzet van algoritmes. In het bestuurlijk en parlementair debat moet hiervoor een waardenafweging plaatsvinden.

De Tweede Kamer moet kunnen zien hoe overheidsorganisaties algoritmes inzetten en welke afwegingen daarbij gemaakt worden. | Beeld: Shutterstock

In een bericht aan de Tweede adviseert het Rathenau instituut de politiek om het gesprek aan te gaan over kwesties die niet zomaar met maatregelen op te lossen zijn. Er moeten keuzes gemaakt worden op het terrein van non-discriminatie, privacy en veiligheid, en die zijn niet gemakkelijk: ‘Het zal zelden mogelijk zijn om alle kans op discriminatie te elimineren. Algoritmische systemen kunnen niet volledig bestand zijn tegen hacks. En er is geen garantie dat de privacy van mensen nooit ingeperkt wordt. Afwegingen tussen waarden zijn noodzakelijk, en dat vraagt om bestuurlijk en parlementair debat waarin soms lastige keuzes gemaakt moeten worden.’

Er moeten keuzes gemaakt worden op het terrein van non-discriminatie, privacy en veiligheid.

Om die keuzes te kunnen maken, moet de Tweede Kamer kunnen zien hoe overheidsorganisaties concrete algoritmes inzetten en welke afwegingen daarbij gemaakt worden. Het parlement moet gedetailleerd geïnformeerd worden over de inzet van algoritmes, stelt het Rathenau Instituut. ‘Alleen als de informatievoorziening aan het parlement op orde is, kan een inhoudelijk debat over de inzet van data en algoritmes gevoerd worden.’

Drie aanbevelingen

Samengevat geeft ze het parlement de volgende drie aanbevelingen mee:
1. Waarborg de informatievoorziening aan het parlement
2. Versterk de juridische waarborgen ten aanzien van non-discriminatie
3. Verhelder de juridische eisen ten aanzien van het motiveringsbeginsel

1. Informatievoorziening waarborgen

Het verplicht stellen van impact assessments zoals het IAMA is niet genoeg; ze moeten ook openbaar toegankelijk zijn. Zo krijgt het parlement inzicht in de moeilijke afwegingen die overheidsorganisaties maken. Daarnaast adviseert het Rathenau Instituut om een complete proportionaliteitsafweging in het assessment op te nemen. Alleen zo kan het parlement per geval beoordelen of de risico’s in evenwicht zijn met de opbrengst van de inzet van algoritmes. Misschien zijn er alternatieven die hetzelfde resultaat opleveren, maar niet dezelfde risico’s hebben?

2. Non-discriminatie

Bewijs maar eens dat je door een algoritme bent gediscrimineerd. Dat valt niet mee. Er is al een motie aangenomen om te verplichten of een overheidsbesluit mede is gebaseerd op een algoritme of risicoprofilering. Maar er zijn meer opties die het makkelijker maken om discriminatie aan te tonen, zoals het deels omdraaien van de bewijslast. Daarnaast kan het nodig zijn om meer beschermde gronden in de wet op te nemen, zodat burger niet onverhoeds worden gediscrimineerd door lerende algoritmes die hun eigen sorteerregels ontwikkelen.

3. Motiveringsbeginsel

De overheid zet lerende algoritmes vooral in als ‘beleidsondersteuning’, niet als beslissers. Maar daarmee weet een burger nog niet hoe het systeem werkt of waarom hij werd geselecteerd. Meer uitleg over het algoritme en motivering over concrete besluiten draagt hieraan bij.
Lerende algoritmes die zonder toezicht hun gang gaan, zijn moeilijk te verenigen met het motiveringsbeginsel. Om die reden zien veel overheidsorganisaties er van af om ze in te zetten, zelfs als deze systemen voor betere resultaten zorgen. Ontwikkelaars bij deze organisaties experimenteren werken echter al wel met deze technieken. Dat kan leiden tot druk om ze toch in te zetten. Het Rathenau Instituut dringt er daarom bij de Tweede Kamer op aan om het kabinet te vragen om heldere normstelling.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren