Overslaan en naar de inhoud gaan
(advertentie)

Scenario’s voor de toekomst van AI-agents

Laptop met diverse AI-agents afgebeeld op het beeldscherm
AI-agents kunnen op basis van AI beslissingen nemen en taken uitvoeren (vrijwel) zonder menselijke tussenkomst. | Beeld: Shutterstock

De laatste jaren zijn we verrast door de snelle ontwikkelingen op het gebied van AI, met name van generatieve AI. Inmiddels kloppen de AI-agents aan de deur: Agentic AI is volgende stap in AI. Twee jaar geleden zijn we daarom waardengedreven dialogen gestart over de impact van nieuwe technologie. Niet met grote woorden als ‘ondergangstheorie’ of ‘blind vooruitgangsgeloof’, maar aan de hand van concrete casussen. En met een blik op de toekomst.

ECP | Platform voor de InformatieSamenleving en het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) organiseerden 30 oktober jl. de conferentie ‘Waardengedreven Dialogen – Agentic AI. Mark Vermeer, directeur digitale overheid van BZK, schetste hoe technologische ontwikkelingen in een stroomversnelling zijn geraakt en hoe dat tot fundamentele veranderingen leidt. Dat geldt zeker voor Agentic AI.

AI-agents zijn applicaties die op basis van kunstmatige intelligentie beslissingen nemen en taken uitvoeren (vrijwel) zonder menselijke tussenkomst. Inmiddels zij ze flink in opmars, maar het is nog onduidelijk wat ons precies te wachten staat. We kunnen ons dus maar beter op verschillende scenario's voorbereiden zodat we AI-agents op een verantwoordelijke manier kunnen inzetten.

Tijdens de conferentie hebben we drie casussen gepresenteerd: Recruitment AI agent, Agentic AI voor inkoop bij de overheid en Agentic AI in Fintech. Uit de casussen zijn handelingsopties en effecten gedestilleerd die de basis vormen voor vier scenario’s (die los staan van de specifieke casussen). Het zijn geen voorspellingen, maar verkenningen die ons denken uitdagen. Ze onthullen mogelijke blinde vlekken en bereiden ons voor op de complexe ethische vraagstukken rond AI-agents. Door zich in scenario’s te verplaatsen kunnen organisaties en professionals proactief nadenken over AI-implementatie.

Vier dimensies

De handelingsopties en effecten zijn geclusterd rond vier dimensies: reikwijdte van de AI (wat deze allemaal mag en kan doen), correctie en toezicht, machtsconcentratie en innovatie. De reikwijdte van de AI-agents, samen met de correctie en toezicht, zegt iets over de autonomie van de AI-agents. Een kleine reikwijdte en veel correctie en toezicht geeft een beperkte autonomie van de AI-agent. Een grote reikwijdte en weinig correctie en toezicht geeft heel veel autonomie. Bij machtsconcentratie kun je denken aan het in meer of mindere mate inbouwen van controlemechanismes die ervoor zorgen dat er niet te veel macht komt te liggen bij één partij. Bij innovatie kunnen de handelingsopties bepaald worden door de vraag of vernieuwingen met name gedreven wordt door de markt of door de behoeften van de samenleving. Deze dimensies vormen de basis voor vier scenario’s. De scenario's variëren van een voorzichtige, stapsgewijze benadering tot een toekomst waarin AI-agents een complex netwerk vormen.

Klik om te vergroten
  • Scenario 1: Stevige stapjes – Gedreven door het bedrijfsleven met focus op betrouwbare en hoogkwalitatieve AI, omdat het alleen dan echt meerwaarde blijkt op te leveren. Beweging gaat langzamer maar met zekere stappen.
  • Scenario 2: Iedereen zijn eigen AI-agent – Enkele grote spelers domineren met veel laagrisico-toepassingen, AI-agents zijn heel toegankelijk maar niet transparant. Er is veel (risico op) automation bias en onvoorziene systemische effecten.
  • Scenario 3: Goede voorbereiding is het halve werk – Ketens van AI werken samen. Veel controlemechanismen en regelgeving remmen, maar zorgen voor effectieve inzet.
  • Scenario 4: Continue maatschappelijke aanpassing – AI-agents vormen een complex netwerk en moeten transparant zijn over de optimalisatiedoelen. Bedrijven zijn verplicht opening van zaken te geven.

Stevige stapjes

2025 was het jaar van de opkomst van AI-agents en general purpose AI-modellen. Geavanceerde taalmodellen zoals ChatGPT of Claude en geïntegreerde assistenten zoals Microsoft Copilot werden dagelijks door miljoenen mensen gebruikt. En er kwamen steeds meer specifieke toepassingen op de markt. Maar na verloop van tijd bleken de AI-agents vooral een dure gimmick. De AI-agent die het supplychain-managementproces moest stroomlijnen maakte onverwachts kostbare fouten; sommige mkb-bedrijven stonden zelfs op de rand van faillissement omdat ze te veel overlieten aan onbetrouwbare AI, zonder zelf voldoende kennis in huis te hebben.

De les is helder: AI-agents moeten betrouwbaar en van hoge kwaliteit zijn om écht meerwaarde te bieden. Anders kost het controleren en corrigeren van fouten meer tijd en geld dan ze opleveren. Dit lijkt het beste te gaan door te focussen op heel specifieke taken en dit takenpakket in kleine stapjes uit te breiden. Deze aanpak werkt het beste in sterk gereguleerde sectoren zoals zorg en financiën. Daar zijn vanaf het begin duidelijke afspraken gemaakt over wie verantwoordelijk is als het misgaat. Er zijn codes of conduct opgesteld, maatregelen tegen automation bias, en heldere afspraken door de hele keten heen: van de AI-ontwikkelaars tot de eindgebruikers.

De AI-agents hebben strikt omlijnde taken en kunnen alleen bij bepaalde data. Er is veel aandacht gestoken in een technisch goede basis: AI die getraind is op schone, representatieve data en systemen die op elkaar aansluiten. Dit is een grote investering. Maar deze agents zijn ontworpen met privacy en security by design en zijn ontzettend goed in de taak die ze doen. Een bijkomend voordeel: de gespecialiseerde AI-modellen zijn lichter en gebruiken veel minder energie dan de zware algemene modellen. De processen zijn opgedeeld in begrijpbare stappen, zodat mensen kunnen zien waar het eventueel fout gaat en kunnen ingrijpen. Sommige bedrijven trainen deze paraatheid door een paar keer per maand zonder AI te werken. Als een gebruiker met een mens wil praten, kan dat altijd. Het systeem leert van die interactie en wordt zo steeds beter.

Kennisdeling tussen sectoren, en tussen publiek en private instellingen zorgt voor veel innovatie. Er ontstaat een keurmerk voor algoritmen die voldoen aan wet- en regelgeving. Waar arbeid duur of schaars is, wordt deze stevige aanpak snel overgenomen. Na een valse start waarin we allerlei kanten op zijn gaan rennen, hebben we nu een solide aanpak gevonden, met stevige maar kleine stapjes in de goede richting.

Voorbeeld

AI-agents die getraind zijn voor bepaalde taken, in een bepaald domein volgens specifieke regels van een bepaald bedrijf of domein. Agents doen (complexe) analyses en patroonherkenning maar hebben beperkte gegevensverwerking. Potentieel zijn er meerdere agents die elkaar controleren zodat de foutmarge heel klein is. Denk aan:

  • Klantenservice: chatbots die alleen helpen bij het afhandelen van specifieke problemen (en daar goed in zijn).
  • Software schrijven: het schrijven van software in bepaalde taal, volgens bepaalde regels.
  • Consumentenmarkt: nieuw kapsel uitproberen in digitale spiegel bij de kapper, zonder dat gezichtsgegevens en andere privacygevoelige informatie worden opgeslagen.
  • Financieel dataverkeer: bij een golf aan issues in de communicatie tussen banken, automatisch betrouwbaar prioriteren, zodat de verantwoordelijke organisatie zich kan concentreren op het meest urgente probleem.
  • HR en recruitment: AI-agent beantwoordt basisvragen over bedrijf en sollicitatieprocedure via een chat aan de sollicitant. De AI-agent beperkt zich tot een goedgekeurde set aan informatie, zoals jaarverslagen en website.
  • Inkooptoepassingen: contracten checken tegen specifieke EU-regelgeving waarvoor ze heel goed getraind zijn.
  • Zorg: automatische verslaglegging tijdens een medische procedure, op basis van accurate data, AI-patroonherkenning en sensoren.

Benieuwd naar de overige scenario’s, lees HIER verder 

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in