AI kan helpen bij de verschuiving naar ‘menselijke maat’
Bij veel overheden, zowel landelijk als lokaal, is de uitvoering van administratieve taken afhankelijk van keuzes die gemaakt worden door menselijke domeinexperts. Neem bijvoorbeeld het beoordelen van aanvragen van visums, uitkeringen en vergunningen; of het gericht inzetten van toezicht of interne kwaliteitscontrole. Deze keuzes liggen bij mensen omdat de keuze context gevoelig is en er in de praktijk vaak een grijs gebied is dat te complex is om te vangen in harde beslisregels. Dit resulteert in een situatie waarin jaarlijks honderdduizenden door mensen gemaakte keuzes, een direct en vaak aanzienlijk effect hebben op het leven en welzijn van burgers.
Stop ‘hokjesdenken’
Door complexiteit van beslisregels zijn uitvoerders gewend geraakt om in hokjes te denken en kwesties zwart-wit te bekijken. Dergelijke kwesties, zoals de Toeslagenaffaire, hebben een tegenbeweging in gang gezet om het denken in hokjes te stoppen. Als gevolg hiervan, wil de overheid de burger behandelen naar de intentie van de wet en waar mogelijk maatwerk bieden binnen de ruimte van de wet. Dit heeft echter grote gevolgen voor de uitvoering, waardoor de overheid is geroepen ‘de menselijke maat’ bij het nemen van beslissingen terug te brengen.
Uitdagingen
Om dit te realiseren zijn er de nodige uitdagingen.
Ten eerste staan de kwaliteit en efficiëntie van de beslisprocessen met elkaar in verband. Als men de kwaliteit verhoogt door meer maatwerk te leveren, gaat dit ten koste van de efficiëntie en vice versa. Door de hoge druk op de uitvoering moet de overheid efficiënter worden, maar dit rijmt lastig met de simultane roep om meer ‘menselijke maat’.
Ten tweede vindt men het in de uitvoering lastig om los te komen van de zwart/wit beslisregels. Voor de behandelaar bieden deze regels een duidelijk kader waarmee de verantwoordelijkheid voor de keuze wordt afgebakend. Voor de manager bieden strakke regels een hoge mate van controle over de uitkomst van het beslisproces. Een beweging naar meer ‘menselijke maat’ leidt tot een minder voorspelbaar en een meer complex proces.
Ten derde creëert de ruimte voor maatwerk ook het risico op willekeur. Hoe garandeert men dat de uitkomst in soortgelijke gevallen niet afhankelijk wordt van de behandelaar?
Meetbaar beslisproces
Momenteel sturen overheidsorganisaties beslisprocessen voornamelijk op output aan, zoals het budget, de caseload, doorlooptijden en het aantal ontvangen en ontvankelijk verklaarde bezwaren. De inhoudelijke afwegingen worden alleen incidenteel op zaakniveau bekeken, bijvoorbeeld als er een intervisie wordt gehouden.
Met AI is het nu mogelijk om het gehele volume van keuzes van alle medewerkers in een transparant beslismodel in kaart te brengen. Hierdoor worden de inhoudelijke afwegingen die ten grondslag liggen aan het gehele beslisproces meetbaar; waardoor deze afwegingen ook bespreekbaar en bestuurbaar worden.
Dit nieuwe niveau van introspectie kan verborgen bias blootleggen, geeft een beeld van het verschil van mening tussen medewerkers en ondersteunt inhoudelijk het gesprek tussen management en medewerkers. Dit geeft de individuele beslisser meer ruimte zonder dat de organisatie de controle verliest of er willekeur ontstaat.
Procesoptimalisatie
Paradoxaal genoeg kan AI hierdoor juist helpen bij de verschuiving naar ‘menselijke maat’. Dit komt doordat AI veel beter dan zwart-wit beslisregels kan identificeren welke casussen maatwerk nodig hebben, bijvoorbeeld omdat ze in een grijs gebied vallen. Via deze procesoptimalisatie wordt de beschikbare menselijke capaciteit effectief ingezet voor maatwerk op niveau, zonder dat dit ten koste gaat van de efficiëntie waarmee simpele keuzes afgehandeld worden.
Beslisondersteuning
AI kan de efficiëntie en kwaliteit van het beslisproces optimaliseren zonder dat de inhoudelijke afweging van de medewerker wordt beïnvloed.
Zodra AI ook inhoudelijk advies geeft aan een medewerker moet er extra zorgvuldig mee om worden gegaan. Uiteraard moet de AI voldoen aan de huidige en verwachte (Europese) standaarden van datakwaliteit en transparantie om bias te voorkomen.
In de toepassing van AI moet daarnaast ook goed gekeken worden naar de mate van invloed die AI heeft op de door menselijke experts gemaakte keuzes. In een toepassing waarbij een medewerker eerst zelf een keuze moet maken, voordat het AI model advies geeft, heeft de AI bijvoorbeeld minder invloed dan wanneer de AI eerst advies geeft en de medewerker daarna een keuze maakt.
Feedback-loop
Daarnaast ontstaat er een feedback-loop als de AI van de dagelijkse praktijk blijft leren terwijl het ook inhoudelijk de keuzes ondersteunt. Een mogelijk gevolg hiervan, is dat de kwaliteit van de AI op termijn kan afnemen als de medewerker minder zelfstandig gaat beslissen. Dit probleem kan men voorkomen door de data van beslisondersteuning strikt te scheiden van de data waar de AI van leert. Bijvoorbeeld, door alleen het oordeel van een aparte kwaliteitsmedewerker te gebruiken om de AI te verbeteren. Of door periodiek de medewerkers te vragen om zelfstandig, zonder beslisondersteuning, keuzes te maken.
Pilots AI in de praktijk
Samen met de TU Delft onderzoekt Councyl hoe de manier waarop AI ingezet wordt, de toepasbaarheid van AI binnen de overheid vergroot of juist in de weg zit. Gefinancierd door de SBIR Mensgerichte AI doen we pilots met beslisondersteuning bij een landelijke uitvoeringsdienst en een gemeente.
Door middel van pilots is het bovendien mogelijk om snel en effectief de randvoorwaardelijke vragen in kaart te brengen en te beantwoorden om de AI naar productie te krijgen, zoals:
- Wat is het onderliggende probleem dat de AI toepassing moet oplossen?
- Hoe communiceert de organisatie over AI, zowel intern als extern?
- Wat vinden de medewerkers en gebruikers ervan?
- Hoe waarborgen we de kwaliteit van de beslisondersteuning op de langere termijn?
- Is het mogelijk om de oplossing te integreren met bestaande IT systemen, zodat deze op schaal kan worden toegepast?
- Wat zijn de juridische implicaties van een zelflerend AI-systeem?
- Welke gedragsverandering is er eventueel nodig om de AI-toepassing in de praktijk te brengen op een manier waar de organisatie beter van wordt?
Door samen met de overheid kennis op te doen over de toepassing van AI als beslisondersteuning en door deze kennis met elkaar te delen, maken we de weg klaar voor het realiseren van de benodigde kwaliteit, menselijke maat, uniformiteit en efficiëntie voor het enorme volume van keuzes die de overheid maakt .
Je moet scherp krijgen welke informatie er nodig is om een keuze goed te ondersteunen.
Beslisondersteunende modellen
Councyl kan beslisondersteunende modellen op een zeer laagdrempelige en transparante manier ontwikkelen, waardoor gebruikers makkelijk en snel in staat zijn om na te denken over de juiste toepassing binnen hun organisatie. Hierdoor kan men in de uitvoering scherp krijgen welke informatie er nodig is om een keuze goed te ondersteunen, zodat het voor de ‘achterkant’ van de organisatie ook snel duidelijk is hoe eventuele vernieuwing van informatiestromen en beslisprocessen gerealiseerd moet worden. Dit zorgt ervoor, dat organisaties op een gebruiksvriendelijke manier uitgenodigd worden om waar dat nodig is, hun uitvoeringsproces opnieuw te definiëren en vorm te geven, in plaats van dat men het bestaande proces in een nieuw jasje steekt.
Councyl
Councyl is een spin-off van de TU Delft. Councyl is mede opgericht door hoogleraar Caspar Chorus en ondernemer Nicolaas Heyning om een nieuw ontwikkelde vorm van AI genaamd BAIT (Behavioral AI Technology) beschikbaar te maken voor de markt. Met BAIT wordt de efficiëntie, kwaliteit en transparantie van repetitieve beslisprocessen geoptimaliseerd. Samen met de TU Delft doet Councyl onderzoek naar de toepasbaarheid van BAIT in de publieke en private sector.
De zelflerende software voor het beheren en ondersteunen van repetitieve keuzes, genereert fictieve keuze scenario’s en leert van het keuzegedrag van menselijke experts.Wat deze aanpak zo uniek maakt is dat er geen historische data nodig is en dat het
resulterende model volledig transparant is.
Mij lijkt dat we moeten gaan kijken naar training en inzet van AI (of kunstmatige intelligentie, KI, in het Nederlands) zoals men vroeger in de gildes deed. KI is net als een hoogBegaafde leerling: de meeste KI algoritmes hebben een fantastische leercapaciteit in het begin, maar hebben ook nog de nodige aanpassingen nodig nadat ze al redelijk betrouwbare uitkomsten geven. Dit omdat er altijd fouten in het systeem sluipEn, die pas na langer gebruik waarneembaar worden.
Aanpassingen kunnen natuurLijk plaatsvinden door de gegevens waarop getraind wordt te veranderen, maar ook door het KI-algoritme zelf bij te stellen. DaArbij heeft KI die voor de menS op begrijpelijke wijze kan uiTleggen 1) hoe een individuele uItkomst tot stand komt en 2) hoe het verschil tusseN twee vergelijkbare beslissinGen tot stanD komt, een evolutionaIr voordeel in onze samenlEving. De mens wordt dan ondersteuNd in de zoektocht hoe toekomStige fouTe beslissingen door de KI voorkomen kunnen worden, houd de KI die dat kan dus langer in gebruik en gebruikt deze als basis voor nieuwe KI instanties.