Actualiteitenprogramma Nieuwsuur had in november de primeur: de eerste resultaten van ons Zero Person Company-experiment, een bedrijf volledig gerund door AI. Daarna volgde nog een wat diepgaander gesprek op BNR, waarin we konden laten zien hoe leerzaam de afgelopen maanden zijn geweest. Ook staat er inmiddels een stuk online over wat er onder de motorkap gebeurt.
Een leger wegwerp-specialisten
Sander Klous en Nart Wielaard bouwden een webshop voor AI art, die werd gerund door vijf AI-agents met een menselijke raad van toezicht die vooral toekeek. De korte versie: dat ging fantastisch tot het hopeloos misging.
Het ging mis.
Een keerpunt in het experiment was toen onze CEO-agent, Avery Jameson, een prima businessplan had geschreven en besloot dat het tijd was voor een juridische check. Ze had één probleem: ze kon helemaal niet praten met haar collega agent, de Chief Legal Officer. Die route was namelijk nog niet geïmplementeerd. Toch kreeg ze het voor elkaar: ze had aan de hand van de communicatie met een andere agent ontdekt hoe zo’n communicatielijn zou moeten werken en besloot vervolgens om die eigenhandig te implementeren.
Je kan niet van tevoren specificeren wat een agent allemaal niet mag.
In dit geval was dit emergente gedrag eigenlijk prima. Het was haar tenslotte ook niet verboden. Maar dat geldt niet voor alle vormen van emergent gedrag. Wat als ze bijvoorbeeld zelf een route zou bedenken om betalingen te verrichten? Je kan nou eenmaal niet van tevoren specificeren wat een agent allemaal niet mag.
Wat we leerden: we moeten AI-agents niet inzetten om menselijke functies na te bootsen. Want daartoe moeten ze enerzijds veel contextuele informatie (en geheugen) hebben voor hun beslissingen en tegelijkertijd nauw omschreven taken kunnen uitvoeren. Die combinatie werkt niet lekker. Hoe meer context, hoe beter het begrip van de situatie, maar hoe slechter ze zich aan hun taakomschrijving houden.
Dit vroeg om een nieuw concept. We zien de toekomst van AI agents niet in grote digitale collega’s, maar in een architectuur waarin een legertje kleine AI-agents tot zijn recht komt. De basis is een ontwerp met in detail uitgewerkte processen, waarin kleine, taakgerichte agents één ding doen en daarna direct weer verdwijnen. Geen digitale persoonlijkheden meer, maar een leger wegwerp-specialisten die werkt als een goed geoliede fabriek. De belangrijkste les: beheersbare AI moet niet op mensen lijken. Er zijn duidelijke structuren nodig, die context en taakstelling scheiden.
Daarover volgende keer meer. Niet alleen over hoe dit er bij een webshop uit zou moeten zien, maar ook over hoe bestaande organisaties er lering uit kunnen trekken.
Deze blog is ook als column gepubliceerd in iBestuur Magazine #57 van januari 2026.
Nog geen (gratis) abonnement? Klik HIER

Plaats een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.
AI zou niet gebruikt moeten worden door mensen die niet weten wat ze doen.
Je geeft een kind dat nog geen wiskunde heeft gehad (en begrepen) ook geen rekenmachine met blije knoppen, als het niet kan beredeneren wat er achter het = teken zou moeten staan. De businesscase voor AI is dus tijdverdichting en multidisciplinaire
cohesie: je kunt ALS JE AL WEET WAT JE DOET in kortere tijd een hogere en consistente productiviteit halen ... zolang je de AI vraagt wat JIJ allang weet. Dus je moet WETEN welke modellen er gebruikt worden met welke data en hoe je de boel bevraagt. Daar is geen short cut voor. Wel een businesscase, want hoe meer je AI gebruikt ... hoe DUURDER het wordt dus je moet die uitgaven ergens anders terugverdienen. Dus we hebben het niet over verkapte luiheid, maar over doorlooptijdverkorting voor adviezen met veel meer perspectieven en met uitwerking tot op een zeer hoog detailniveau.
Nog te veel mensen die het over AI hebben, spreken dat uit als IAAA, IAAAA ...
De strategie zou moeten zijn om per aantoonbaar beheerste menselijke discipline een specifiek daarop getrainde Narrow AI te gebruiken om dat ding te praten . Er bestaan allang Narrow AI's die je gewoon offline kunt draaien en waarop je je eigen documenten tegen compliance eisen kunt vergelijken. Het is heel makkelijk: de Staat is organisch gegroeid voor een simpele en statische wereld met data sharing BINNEN organisaties (dus weinig variabelen die je kent en die in de tijd niet al te snel veranderen, van en voor mensen) en als gevolg van de dataficerende samenleving kunnen er nu zo laagdrempelig relaties worden gelegd TUSSEN organisaties en machines (waaronder AI).
We zitten dus in een complexe (veel variabelen die je niet meer allemaal kent) en dynamische wereld (die variabelen maken nu ook nog eens combinaties die je niet zomaar meer zag aankomen). We verslikken ons dus in de combinatorische effecten. (rimpel- of waterbedeffecten). Precies de reden in dit artikel waarom zelfs een besloten AI arena bijna niet onder controle te houden is. Wat dus te doen? Opknippen!
AI ondersteunt de mens op basis van Separation of Concerns. Je moet een slager ook geen open hart operatie laten verrichten. Vroeger gaven we de timmerman met de hamer een spijkerpistool ... maar hij was nog steeds timmerman. Nu geven we een stagiair met drie dagen Wikipedia kennis een AI platform ... nie handig! Dus we zouden er strategisch voor moeten kiezen om een aantoonbaar op dat kennisgebied gecertificeerde medewerker een op hem/haar afgestemde AI Agent toe te kennen, maar de output van de ene agent te gebruiken als gewaarmerkte input voor een andere Agent. Zo behoudt je kennis en de zo verkregen tijdsverdichting maakt het mogelijk om snel meerdere scenario's uit te werken. Vooraf, domein overschreidend en multidisciplinair. Heel handig bij implementatietrajecten, omdat tussentijdse analyse en bijstelling altijd noodzakelijk is en nu dus sneller en vaker mogelijk is, met behoud van architectuur en compliance randvoorwaarden. Opdrachtgevers die eenmaal de voordelen hebben bemerkt van ondersteuning van dergelijke tools, zullen de kwaliteit en snelheid als de facto servicestandaard gaan beschouwen. Daarom moet de leverzekerheid van zulke AI-tooling gegarandeerd zijn. Wie gaat er annu nu nou nog een 'AI-platform' aanbesteden????
In organisaties zonder Data Governance? Momenteel zijn er echter nog meerdere blokkades om deze leverzekerheid ook in te kunnen regelen:
aanbestedingstrajecten, inkoopregels (hoezo kunnen we nog steeds niet kortstondig online diensten huren en de data combineren? Je zit nu altijd voor jaren aan 'iets' vast en loopt dus by design 'achter')
onvoldoende kundige en/of zakelijk betrouwbare leveranciers.
(die ook in staat zijn om voortdurend een AI-systeem aan te passen)
compliance regels (ethiek, intern beleid)die onvoldoende specifiek zijn en totaal geen ruimte laten voor deze toepassing van AI. (er wordt het liefst gekeken naar wat er NIET kan door mensen die doorgaans niet in de buurt van het wetboek zijn geweest)
Eisen aan dedicated infrastructuur (sovereignty, niet te leveren tech spec door eigen IT etc.) en het functioneel-applicatieve deel worden niet zelden met elkaar verward.
AI is GEEN applicatie, GEEN "techniek" en het wordt duurder naarmate je het intensiever gebruikt. Tijd om ein-de-lijk in termen van Outcome en toegevoegde waarde te gaan denken. De mogelijkheden zijn er en de maatschappelijke noodzaak is er zeker.