Overheid in transitie
Blog

Hoe AI de overheid kan transformeren

Zonder de noodzakelijke transformatie blijft AI een marginaal experiment. | Beeld: shutterstock

Digitalisering binnen de overheid gaat al jaren gestaag vooruit, maar de inzet van kunstmatige intelligentie (AI) legt een fundamentele spanning bloot. MIT-onderzoek laat zien dat AI alleen waarde oplevert als organisaties zichzelf opnieuw uitvinden. Zonder die transformatie is AI bouwen op drijfzand: een reeks pilots, mooie demo’s en losse tools die uiteindelijk in de praktijk vastlopen.

Volgens het onderzoek State of AI in Business 2025 levert 95 procent van de GenAI-pilots geen blijvend resultaat op, terwijl miljarden worden geïnvesteerd. Slechts 5 procent slaagt erin om AI daadwerkelijk in hun werkprocessen te verankeren.

Botsende werelden: stabiliteit versus wendbaarheid

Waarom zijn de MIT-bevindingen juist voor de overheid relevant? Dat heeft te maken met de organisatie en manier van werken van de overheid. Overheidsorganisaties zijn traditioneel ingericht op stabiliteit, risicobeheersing en hiërarchische verantwoording. Dat botst met wat implementatie van AI vereist, namelijk: korte leercycli, ruimte om te experimenteren en samenwerking over organisatiegrenzen heen. AI-toepassingen werken pas goed als systemen kunnen leren, geheugen opbouwen en context meenemen. Waar de klassieke projectaanpak uitgaat van vooraf vastgestelde specificaties, vraagt AI juist om iteratie, bijsturen en experimenteren.

Wat de overheid kan leren van Spotify en ING

Dat het anders kan bewijzen koplopers buiten de overheid. Spotify veranderde zijn hele werkstructuur om technologiegedreven innovatie mogelijk te maken. Hun organisatiemodel met squads, tribes en chapters zorgt ervoor dat kleine multidisciplinaire teams end-to-end verantwoordelijkheid hebben. Het resultaat: wekelijkse updates, snelle experimenten met AI-functies en directe feedback van gebruikers. Niet de technologie, maar de organisatievorm maakt dit tempo mogelijk. ING kopieerde dit model en transformeerde van traditionele bank naar digitale dienstverlener. Dankzij agile principes en multidisciplinaire teams werd ING wendbaarder, klantgerichter en innovatiever. Als een bank met een diep verankerd risicomodel deze stap kan maken, kan de overheid dat ook.

AI als katalysator voor een nieuwe manier van werken

Voor de overheid betekent dit concreet dat AI niet langer moet worden gezien als een ICT-project, maar als katalysator voor een nieuwe manier van werken. Dat begint bij cross-functionele teams waarin beleidsmakers, uitvoerders, ICT-specialisten en juristen samenwerken. Het vraagt om experimenteerruimte met budget en mandaat, en om nieuwe rollen zoals productowners dienstverlening en ethische AI-experts. Ook de verantwoording moet veranderen: niet alleen sturen op efficiency, maar ook op leervermogen en gebruikerstevredenheid.

Lessen uit het MIT-onderzoek

Het MIT-onderzoek biedt waardevolle lessen voor de overheid. Een belangrijke waarschuwing is om niet te blijven hangen in mooie pilots met generieke chatbots. Die werken prima in een demo, maar lopen vast in complexe werkprocessen zoals bij vergunningverlening of in de sociale zekerheid, waar context cruciaal is. Succesvolle organisaties investeren juist in opbouw van geheugen en lerend vermogen. Ook blijkt dat externe partnerships tweemaal zo succesvol zijn dan alles zelf ontwikkelen. Voor de overheid betekent dit dat samenwerking met gespecialiseerde leveranciers, mét kennis van publieke processen, essentieel is.

Daarnaast moet de overheid oog hebben voor onvermijdelijke ‘shadow AI’: ambtenaren die al persoonlijke AI-tools gebruiken. In plaats van dit te verbieden, kan de overheid beter veilige alternatieven aanbieden die aansluiten bij AVG- en beveiligingsrichtlijnen. Op die manier benut je de energie van onderop, zonder de risico’s uit het oog te verliezen.

Naar een mensgerichte overheid

Voor burgers opent deze transformatie de deur naar een overheid die niet langer procesgericht, maar mensgericht werkt. Een overheid die dienstverlening personaliseert, proactief meedenkt bij levensgebeurtenissen en transparant is over hoe beslissingen tot stand komen. Vertrouwen ontstaat pas als mensen ervaren dat AI hen ondersteunt, niet vervreemdt.

AI kan de overheid helpen sneller, persoonlijker en betrouwbaarder te worden. Maar dat lukt alleen als de organisatie zelf mee verandert. Zonder die transformatie blijft AI een marginaal experiment. Met die transformatie kan AI uitgroeien tot motor van een moderne, lerende en wendbare overheid.

 

  • Vincent Hoek | 12 oktober 2025, 17:27

    “AI zonder organisatievernieuwing is als een motor zonder chassis: indrukwekkend stationair, maar onbestuurbaar op de weg.” Wie AI benadert als ICT-project strandt in ‘pilot purgatory’—mooie demo’s, nul structurele waarde en dat is dus precies wat we vooralsnog zien binnen de overheid.
    Dat is ook niet zo gek! Slechts een minderheid heeft AI op schaal verankerd in processen en haalt er significante waarde uit. De rest blijft hangen in pilots en losse initiatieven.
    AI is geen discussie over tech tooltjes, maar gaat over de organisatie zelf:
    procesherontwerp, datagovernance, capaciteitsopbouw, en nieuwe besluitvormingsritmes.
    Probeer dat maar eens op een holistische wijze aan te pakken in een oude functionele hiërarchie die nog altijd gestuurd wordt op documenten en processen en mensen die vergaderen op output.
    De overheid is gebouwd op organisch gegroeid, nooit als samenhangend data ecosysteem, gericht op stabiliteit, op throughput-output en niet op feedback loops, laat staan real-time; op voorspelbare verantwoording en op outside-in risicobeheersing. AI vraagt juist het tegenovergestelde ritme:
    niet jaren over iets doen, maar kort-cyclisch leren, iteratief verbeteren, multidisciplinair samenwerken over organisatie (en daarmee mandaat en budget) grenzen heen en AI vraagt ruimte voor gecontroleerde experimenten. Voor feiten en niet voor meningen. OECD en EU-richtlijnen voor publieke AI-governance onderstrepen dit spanningsveld: je hebt zowel strakke kaders (transparantie, veiligheid, AVG/BIO) als adaptieve werkvormen nodig (productteams, MLOps, modelmonitoring).

    Wat Spotify en ING wél deden (en wat de overheid daarvan kan leren) is dat Spotify’s model werkt met squads, tribes en chapters; kleine teams end-to-end verantwoordelijkheid met wekelijkse releases en directe feedbackloops. Niet de tooling, maar de structuur maakte snelheid mogelijk.
    ING kopieerde het principe (niet het sjabloon) en koos ook voor multidisciplinaire productteams, korte iteraties, duidelijke product eigendom. Het resultaat: meer wendbaarheid in een zwaar gereguleerde context—precies het soort context dat de overheid herkent. Het is dus prima mogelijk om regulering te combineren met snelheid, mits je governance en werkstructuur op elkaar afstemt. Alleen dat vraagt WEL mandaat, vrijheid, discipline, nieuwe kennis en nieuwe structuren.
    Het mooie is dat juist AI de benodigde katalysator kan zijn voor nieuw werken
    AI moet geen “ICT-component” zijn, maar een katalysator voor een andere manier van werken:
    Met cross-functionele teams: beleid, uitvoering, ICT, data/AI, juristen, privacy/security in één team met producteigenaarschap. Van project naar product: met doorlopend onderhoud, monitoring (drift, bias, veiligheid), en iteratieve verbeteringen. Met geheugen en lerend vermogen, met model- en dataversiebeheer, feature stores en kennisretentie zijn cruciaal; generieke chatbots zonder domeingeheugen stranden in complexiteit. Wil je shadow AI kanaliseren biedt dan veilige enterprise-alternatieven (dataclassificatie, DLP, logging, modelregistries) in plaats van het verbieden van vernieuwing. Benut die energie van die oh zo schaarse professionals, maar borg die publieke waarden. Het gaat om de data, niet op het tooltje en leer! Gebruik architectuur, compliance en governance die werken in de publieke context. Dus sluit aan op NORA/EIRA: werk met die Open Standaarden, maak die duidelijke functiescheiding (datalaag, model/MLOps-laag, applicatie-laag), en explicieteer die publieke waarden. Dit eist privacy- en veiligheid by design: AVG/BIO-conformiteit als ontwerpeis; DPIA standaard; auditeerbare beslissingen. AI komt dus neer op verantwoording vernieuwen: stuur niet alleen op efficiency, maar op leervermogen, burgersatisfactie en modelkwaliteit (nauwkeurigheid, uitlegbaarheid, fairness). Ga werken in ecosystemen en partnerschappen: organisaties die buiten de eigen muren samenwerken, realiseren aantoonbaar vaker waarde dan de mensen die hun afdeling niet af komen. Inkoop moet dit faciliteren (outcome-based, open standaarden, exit-opties tegen lock-in en met het inzicht dat hoe meer je AI gebruikt, hoe duurder het wordt, dus je kunt er maar beter NOG meer toegevoegde waarde uit destilleren dankzij de consistentie van complexiteit analyse en de significante tijdwinst die je kunt halen als je weet wat je doet. Dat vraagt metadisciplinariteit. Dus ga voor die AI productteams met end-to-end verantwoordelijkheid (beleid–data–tech–juridisch). Begin met datagovernance: bronregistratie, kwaliteit, semantiek en toegangsregie en probeer dat niet aan het einde af te raffelen. Bouw de eigen MLOps-capaciteit: modelregistries, CI/CD, monitoring op performance, drift en bias.
    Richt “veilige zandbakken” in met echte processen en gecontroleerde data voor experimenten.
    Meet wat telt: doorlooptijd, releasetempo, gebruikerswaarde, foutpercentages, fairness-metrics.
    Faciliteer partnerships: universiteiten, GovTech, leveranciers met publieke domeinkennis.

    Er kan zoveel, maar dat betekent dan wel afstappen van al die losse pilots zonder integratiepad naar productie en beheer. Stoppen met die “one-size-fits-all” chatbots in complexe domeinen zonder domeingeheugen of procesinbedding. Stoppen met centraliseren zonder producteigenaarschap en matrixverantwoordelijkheden inrichten zonder bevoegdheid. Dan ontstaat het juiste framework om shadow AI niet langer te kritiseren of te negeren, maar te kanaliseren en te beveiligen.
    Maar dan wel zonder vendor lock-in, dus op Open Standaarden, met portabiliteit en met transparante kostenmodellen. De belofte van AI voor burgers ligt in proactieve, begrijpelijke en rechtmatige dienstverlening rondom levensgebeurtenissen. Transparantie over hoe beslissingen tot stand komen is randvoorwaarde voor vertrouwen. In Europese zin betekent vrijheid niet deregulering, maar goed bestuur: privacy, uitlegbaarheid en menselijke maat ingebouwd in de architectuur van systemen.

    Bronnen:
    – MIT Sloan Management Review & Boston Consulting Group, AI and Business Strategy (2019–2023). Zie o.a. “Achieving Individual and Organizational Value with AI” en jaarlijkse edities over ‘pilot purgatory’ en organisatieverandering.
    – McKinsey & Company, The State of AI (2023–2024); “The economic potential of generative AI: The next productivity frontier” (2023).
    – OECD, AI in the Public Sector en OECD AI Principles (doorlopende publicatiereeks, 2019–2023).
    – ENISA, EU AI Threat Landscape (2023); richtsnoeren voor veilig gebruik van AI-toepassingen.
    – NCSC-NL, Handreikingen voor veilig gebruik van (generatieve) AI en dataclassificatie (2023–2024).
    – Kniberg & Ivarsson, Scaling Agile @ Spotify (2012).
    – McKinsey, “How ING became more agile” (casebeschrijving, 2017).

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren