Kunstmatige intelligentie (AI) wordt vaak gepresenteerd als dé innovatie om organisaties productiever en efficiënter te maken. Hoewel niemand meer twijfelt aan deze claim, blijven belofte en realiteit hier vaak nog ver uit elkaar staan.
Natuurlijk moeten veiligheid en ethiek gewaarborgd worden. Ook het opstellen en uitvoeren van nieuw en passend beleid vraagt om een zorgvuldige aanpak. Tegelijk zijn er kritische geluiden dat vooruitgang zo in bureaucratie wordt gesmoord.
Wat maakt AI binnen de publieke sector zo lastig?
1. Het streven naar generiek beleid werkt verlammend
De reflex om voor AI een alomvattend beleidskader te creëren, is begrijpelijk — maar werkt ook verlammend. Pogingen om universele regels op te stellen voor alle AI-toepassingen leiden al snel tot langdurige processen, vaagheid, besluiteloosheid en zelfs uitstel van AI. Terwijl juist snelheid en flexibiliteit nodig zijn om AI effectief te implementeren.
2. Risico-aversie remt innovatie
In uitvoeringsorganisaties leeft een sterke risicomijding. De vrees om fouten te maken (bijvoorbeeld de angst om burgers negatief of oneerlijk te behandelen en daardoor publieke of politieke schade te lijden) leidt tot overmatige controlemechanismen. Tegelijkertijd zien we bij commerciële bedrijven dat kleine stappen en gecontroleerde experimenten juist wél tot waardevolle innovaties leiden. In de publieke sector is de uitdaging om een oplossingsgerichte houding ten opzichte van AI aan te nemen, en tot op een zekere hoogte het risico in te calculeren en te accepteren.
3. Subjectiviteitverschillen blokkeren beleid
Wat voor de één een onschuldige toepassing is, kan voor de ander ethisch problematisch voelen. Beleidsmakers willen (onbedoelde) subjectiviteit vermijden, maar lopen vast op uiteenlopende visies over wat ‘veilig’ of ‘verantwoord’ is. De variëteit in persoonlijke en culturele opvattingen maakt het moeilijk om consensus te bereiken over beleid, wat de implementatie van relatief eenvoudige AI-toepassingen verder belemmert.
4. Bias blijft een onzichtbare vijand
AI weerspiegelt de data waarmee het getraind is. Vooroordelen in datasets — zoals discriminatie bij sollicitatieprocessen — worden gemakkelijk gereproduceerd door AI-modellen. Het probleem is niet alleen de AI technologie, maar juist ook in de organisatie zelf: bij veel organisaties ontbreekt de capaciteit of tijd om kritisch naar hun processen, data en algoritmes te kijken.
5. Politieke vrees blokkeert leiderschap
De schaduw van incidenten zoals de toeslagenaffaire werpt zich over elk AI-traject in de overheid. Bestuurders zoeken zekerheid, hebben vaak niet het volledige overzicht in de risico’s die ze lopen en mijden zoveel mogelijk risico’s. Dit kan leiden tot besluiteloosheid en geen vooruitgang boeken. Geen besluit is ook een besluit: om niets te doen.
De weg vooruit: van beleid naar praktijk
1. Begin klein, leer snel
In plaats van te streven naar allesomvattend beleid, moeten we AI-projecten opknippen in overzichtelijke, laag-risico toepassingen. Begin met ‘onschuldige’ toepassingen, zoals automatische documentherkenning met evenwichtige controle mechanismen of ‘verslim’ secundaire processen, en breid uit als kennis, ervaring en vertrouwen toenemen.
2. Stimuleer gecontroleerde experimenten
Geef ruimte aan pilots binnen veilige kaders. Creëer ‘sandboxes’ waarin overheidsdiensten kunnen testen, leren en aanpassen zonder directe consequenties. Werken met AI is bijna een ambacht of een topsport, dat leer je alleen door het continu te herhalen en verbeteren. Verlies daarbij nooit het doel uit ogen; zorg dat wat in de sandboxes gedaan wordt, altijd relevant en nuttig is voor de organisatie. Blijf ook alle stakeholders betrokken houden, zodat iedereen leert. Fouten zijn geen falen, maar noodzakelijke leermomenten voor de toekomst.
3. Maak beleid modulair en behapbaar
Door beleid en uitvoering te segmenteren per toepassing en risicoklasse, ontstaat meer duidelijkheid en handelingsperspectief. Bepaalde AI kan zonder complexiteit, terwijl andere meer tijdrovende aandacht nodig heeft. Dit helpt ook om verschillen in perceptie te managen — beleid en uitvoering worden controleerbaarder, uitvoerbaarder en transparanter.
4. Zorg voor reflectie op data en modellen
Data scientists binnen de overheid moeten niet alleen analyseren, ontwikkelen en innoveren, maar juist ook spiegelen. Waar komt bias vandaan die de AI-modellen ogenschijnlijk geven? Mogelijk dat bestaande processen de bron zijn van die bias, hoe die weer te verbeteren? Dit vereist samenwerking tussen experts, beleidsmakers en ethici.
5. Investeer in governance en vlieguren
Net als een piloot ervaring nodig heeft om veilig te vliegen, moet ook de overheid ‘vlieguren’ maken met AI. Richt centres-of-excellence op, zoals in een aantal overheden al gebeurt, en zorg dat kennis wordt opgebouwd binnen organisaties. Governance is noodzakelijk middel om structuur aan te brengen en vertrouwen te creëren om AI te bewerkstelligen.
Tot slot: het momentum is nú
AI is geen toekomstdroom meer — het is er al. De vraag is niet óf, maar hóé de publieke sector ermee aan de slag gaat. De grootste risico’s liggen niet in AI zelf, maar in stilstand, angst en besluiteloosheid. Begin klein, denk groot, en ontwikkel slim beleid dat ruimte laat voor groei én bescherming biedt waar nodig. Vraag jezelf af: Waar willen we staan in de toekomst, en werk er langzaam heen in kleine stapjes. Betrek daarin kennishouders van processen, ethici, beleidsmakers, data-experts en technici. Meet en rapporteer voorgang van alle stapjes, en volg de vooruitgang.

Meer weten?
Neem gerust contact met ons op.
Auteur kennisbijdrage: Koko Visser -Head of AI, Valcon.
Disclaimer: dit artikel is mede tot stand gekomen door AI: eventuele fouten zien wij als startpunt voor een nieuw leermoment en verdere ontwikkeling.