Data en ai
Nieuws

Doet de overheid genoeg om discriminatie door de inzet van AI te voorkomen?

Algorithmic,Bias,Concept,With,Magnifying,Glass,Highlighting,Data,Discrimination,,Artificial
Het ministerie van BZK werkt actief aan kennisdeling, onder meer via opleidingen en e-learnings over non-discriminatie in algoritmes en data. | Beeld: Shutterstock

De inzet van AI binnen publieke organisaties biedt kansen, maar het leidt ook tot risico’s op het gebied van discriminatie en ongelijkheid. Om dit te voorkomen zet de overheid diverse tools, opleidingen en toezichthouders in. Maar of dit genoeg is, hangt af van de vraag of bestuurders deze instrumenten actief, consequent en integraal inzetten. De aanpak van discriminatie in AI is geen technische aangelegenheid, maar een bestuurlijke verantwoordelijkheid. 

De overheid erkent dat AI-systemen genderbias en discriminatie kunnen versterken. Vooral in hoog-risico domeinen zoals biometrische identificatie, onderwijsselectie en kredietbeoordeling zijn de gevolgen aanzienlijk. Op antwoorden van vragen van GroenLinks-PvdA Kamerleden Lisa Westerveld en Barbara Kathmann over het emancipatiebeleid van Nederland en de rol van digitalisering, geeft staatssecretaris Van Marum een overzicht van de diverse middelen die ingezet worden om dit te voorkomen, zoals de handreiking non-discriminatie by design en het Impact Assessment Mensenrechten en Algoritmen (IAMA) dat specifiek voor overheidsorganisaties is ontwikkeld.

Algoritmekader

Hiernaast wijst hij op het Algoritmekader voor de overheid, dat onlangs een drastische verandering onderging. De oorspronkelijke versie was een statisch document, het ‘Implementatiekader inzet van Algoritmen door de overheid’ , dat in juli 2023 naar de Tweede Kamer is gestuurd. Nu is het een dynamische website. De vele wettelijke vereisten voor de inzet van algoritmes zijn verder in kaart gebracht en ingedeeld naar de fase van de levenscyclus, met daarbij maatregelen en hulpmiddelen om aan de vereisten te voldoen.

Het ministerie van BZK werkt actief aan kennisdeling, onder meer via opleidingen en e-learnings over non-discriminatie in algoritmes en data. Het Leerplatform van de RijksAcademie voor Digitalisering (RADIO) biedt hierin praktische ondersteuning. Ook is er een community of practice rondom digitale ethiek waar overheden kennis, ervaringen en werkwijzen uitwisselen. Ook is een discriminatieprotocol voor AI ontwikkeld naar aanleiding van de motie-Van Baarle.

Geen dwang, wel toezicht

‘Kunt u dwingend optreden als dit er sprake van discriminatie is?’ vragen de Kamerleden de staatssecretaris. Het antwoord is nee:  ‘Organisaties zijn in eerste instantie zelf verantwoordelijk om ervoor te zorgen dat ze handelen conform wetgeving en normen. Bij signalen van of klachten over discriminatie door algoritmische en AI-toepassingen kunnen toezichthouders wel optreden. Dit heeft zich volgens hem in de afgelopen jaren ook een aantal keer voorgedaan. ‘De Autoriteit Persoonsgegevens (AP) en het College voor de Rechten van de Mens (CRM) zien erop toe dat het handelen van publieke en private organisaties niet in strijd is met de Algemene Verordening Gegevensbescherming en non-discriminatiewetgeving. De AP, het CRM en de procureur-generaal bij de Hoge Raad (PGHR), de voorzitter van de Afdeling Bestuursrechtspraak Raad van State (ABRvS), het gerechtsbestuur van de Centrale Raad van Beroep (CRvB) en het gerechtsbestuur van het College van Beroep voor het bedrijfsleven (CBb) zijn voor de AI-verordening vastgesteld als autoriteiten voor de bescherming van grondrechten.’

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren