Hillie Beentjes (BZK) moedigt verantwoorde experimenten met AI aan
Per februari volgend jaar moeten organisaties die met AI-systemen werken zorgen dat hun medewerkers AI-geletterd zijn. Daar hoort voor Hillie Beentjes, directeur Digitale Samenleving van BZK, bij dat ambtenaren verantwoord experimenteren met AI-toepassingen. ‘Want we gaan gewoon achterlopen als we niet mogen experimenteren.’
Het Rijk is tot nu toe zeer terughoudendheid geweest met de inzet van AO, onder meer omdat je bij zelflerende AI-modellen niet precies weet hoe een systeem tot een uitkomst komt. Met de inwerkingtreding van de AI-verordening gelden er bovendien allerlei nieuwe verplichtingen voor overheden, zoals transparantie over de hoogrisico AI-systemen die ze gebruiken.
Kies voor risicoloze onderwerpen
Allemaal heel nuttig, maar ambtenaren moeten ook weer niet zó voorzichtig worden dat ze liever helemaal wegblijven van AI, vindt Hillie Beentjes, directeur Digitale Samenleving bij het ministerie van Binnenlandse Zaken (BZK). AI is er méér dan alleen GenAI, en lang niet iedere AI-toepassing is bij voorbaat onbruikbaar voor de overheid. Neem de ruimte om te experimenteren, maar doe dat wel verantwoord en veilig, is haar boodschap. Ga niet experimenteren met AI op onderwerpen waar persoonsgegevens aan te pas komen. Kies voor een risicoloos onderwerp om te onderzoeken wat wel en niet werkt. En houd de menselijke factor in de gaten.
Algoritmeregister
Nog los van de toepassingen zouden overheidsorganisaties ook veel meer van elkaar kunnen leren over verantwoord gebruik van AI, denkt ze. ‘Als iemand al helemaal heeft uitgevogeld wat er moet gebeuren om te voldoen aan de AI-verordening, dan zou je die persoon moeten kunnen raadplegen.’
Het algoritmeregister kan daarbij een rol spelen. Het Nederlandse algoritmeregister is bedoeld om meer transparantie te scheppen over het gebruik van impactvolle algoritmes door de overheid, maar kan ook dienstdoen als een database voor overheden op zoek naar inspiratie of goede voorbeelden. ‘Kijk er vooral in als je van plan bent om een toepassing te laten bouwen’, moedigt Beentjes aan. ‘Misschien heeft een andere overheid het al voor jou gedaan.’
Ook zelflerende algoritmen zijn wat haar betreft niet bij voorbaat een no-go. ‘Het is te kort door de bocht om te zeggen dat het niet past binnen de overheid. Het past de overheid om voorzichtig te zijn, maar om te weten hoe je iets kunt gebruiken, moet je het wel kunnen uitproberen.’
In het komende nummer van iBestuur Magazine (januari 2025) publiceren we een uitgebreid interview met Hillie Beentjes.
Nog geen (gratis) abonnement? Klik HIER
Lees ook: