AI Agents zullen de mens niet overbodig maken, maar wel effectiever
De hype rond Agentic AI steekt die rond Generative AI aardig naar de kroon. Die AI Agents gaan hele afdelingen automatiseren, zo klinkt het. Allerlei handelingen nemen ze straks van ons over. Volledig autonoom. En veel beter en veiliger dan wij dat zelf zouden kunnen. Maar: is dat wel zo? Hoe bruikbaar is Agentic AI eigenlijk? Kunnen we er wat mee binnen de publieke sector? Het antwoord: ja, de technologie gaat ons enorm helpen. Als we er verstandig mee omspringen tenminste.
Maar laten we bij het begin beginnen. Wat is een AI Agent? Stel je een grote digitale bibliotheek voor met miljarden boeken, artikelen en gesprekken. Een Large Language Model (LLM) zoals ChatGPT is als een superslimme bibliothecaris die razendsnel door al die informatie bladert en op basis daarvan antwoord geeft op jouw vragen. Het is goed in begrijpen en genereren van tekst, maar het doet dat reactief: jij stelt een vraag, het geeft een antwoord.
Een AI Agent is als diezelfde slimme bibliothecaris, maar dan met toegang tot allerlei handige tools en systemen. In plaats van alleen te reageren op vragen, kan een AI Agent zelf initiatief nemen, acties uitvoeren, data ophalen, een rapport genereren, leren van eerdere ervaringen en samenwerken met andere systemen.
Semi-autonoom is ook heel mooi
De belofte van AI Agents is dat ze volledig autonoom zullen zijn. Dat ze proactief aan de slag gaan. Beslissingen nemen. Organisatieprocessen end-to-end voor hun rekening kunnen nemen. Uit ons recente rapport The Rise of Agentic AI blijkt dat het zo’n vaart niet loopt. De meeste AI Agents werken momenteel op een laag niveau van autonomie. Ja, ze automatiseren taken, maar wel door mensen vooraf gedefinieerde taken, met een vooraf gedefinieerde scope.
De komende jaren zal die graad van autonomie wel toenemen, maar dat gaat slechts langzaam. En zelfs bij vergevorderde autonomie houden mensen een stevige vinger in de pap. AI-besluitvorming zal steeds vaker voorkomen, maar organisaties zullen niet gauw afscheid nemen van menselijke checks and balances. De overheid wordt echt niet overgenomen door een super-intelligentie die alles voor z’n rekening neemt. Ik voorzie eerder dat kleine, afgebakende agents worden geïmplementeerd, die in samenhang met elkaar ook al tot veel in staat zijn.
Foutgevoelig
Het zal dan vaak gaan om repeterende taken. In de omgang met burgers, maar ook binnen- en buitenlandse veiligheid, kan de overheid zich geen fouten permitteren. Door menselijk handelen ontstaan onherroepelijk fouten; zeker repeterende taken zijn erg foutgevoelig. En hoe onschuldig en onbedoeld ook, zo’n foutje kan grote gevolgen hebben. Mits op de juiste manier ingericht, maakt een AI Agent geen fouten. Ook niet als het om heel veel repeterende taken gaat. Daarmee kan een overheid potentieel grote risico’s heel effectief afdekken.
Agents hebben nog een voordeel. Heb je repeterende taken met succes geautomatiseerd, dan heb je ondertussen mensen vrijgespeeld. Zij kunnen zich vervolgens richten op taken met meer toegevoegde waarde. Taken die bijvoorbeeld de dienstverlening van de overheid aan de burger verbeteren.
Processen
AI Agents brengen een fundamentele verschuiving teweeg in het beheer en de uitvoering van bedrijfsprocessen. Het zijn immers geen simpele hulpmiddelen meer, maar min of meer volwaardige ‘teamleden’ die processen met minder menselijke tussenkomst voor hun rekening kunnen nemen. Maar: als je niet weet hoe processen lopen is het heel moeilijk om er Agents op in te zetten en zul je hun capaciteiten niet ten volle kunnen benutten. Bovendien is een zekere mate aan standaardisering van processen wenselijk. Stabiele en gestandaardiseerde processen zijn gemakkelijker te automatiseren. Kortom: in veel gevallen zal een heroverweging of zelfs een herontwerp van processen nodig zijn. Bezint eer ge begint.
Vertrouwen
Uit ons rapport blijkt dat iedereen veel verwacht van Agentic AI, maar dat er tegelijkertijd ook veel huiver is. Dat geldt voor toepassingen in de private sector, maar natuurlijk dubbel en dwars voor de publieke sector. Er zijn veel zorgen rond de ‘bias’ van algoritmes. En over het gebrek aan transparantie – AI wordt vaak gezien als een ‘black box’, waarvan de input en de output niet zijn te herleiden. Bovendien is er veel te doen over het feit dat AI menselijk werk in rap tempo lijkt over te nemen en daarmee de werkgelegenheid lijkt te bedreigen.
Zeker in de publieke sector is dit gebrek aan vertrouwen een voornaam aandachtspunt. De toepassing van Agentic AI moet dus in alle gevallen uitlegbaar zijn en navolgbaar, met grote (en uitgesproken) aandacht voor privacy, en met robuuste guardrails in de vorm van menselijke monitoring en fiattering.
Mensenwerk
Wat is dan de slotsom? Agentic AI heeft het potentieel om het bestaan, het welzijn en de veiligheid van burgers te verbeteren. Maar dat gaat niet zomaar. De scope van toepassing van AI Agents moet goed worden gedefinieerd en nauwkeurig worden bewaakt. De onderliggende processen moeten goed in kaart worden gebracht en waar nodig gestandaardiseerd en gerationaliseerd. Er moet aandacht worden besteed aan de vertrouwenscomponent. En, tot slot: we mogen nooit vergeten dat werken voor de publieke zaak uiteindelijk altijd mensenwerk moet blijven.
Download hier het rapport The Rise of Agentic AI
Joost Carpaij is head of (Gen)AI, Data Science and Analytics en is verantwoordelijk voor de doorontwikkeling van dit vakgebied en de collega’s binnen Capgemini. Daarbij is hij hoofdzakelijk betrokken bij partijen in het publieke veiligheidsdomein.