AI moet de taal van bestuurders leren, niet andersom
Als het uitgangspunt is dat bestuurlijke besluiten uitlegbaar zijn en volgens een zorgvuldig proces tot stand moeten komen, is het nog maar de vraag of AI het beste instrument is. Immers, AI zal uit grote hoeveelheden data patronen herkennen en die inzetten voor hun taak. Maar als alleen die AI het patroon kent, kan een bestuur zich daar dan over verantwoorden?
2023 was het jaar waarin kunstmatige intelligentie (AI) definitief is doorgebroken. Met ChatGPT als nadrukkelijk boegbeeld werd AI zichtbaar als onderdeel van het dagelijks leven in schoolbanken, bedrijven en overheidsorganisaties. AI komt in velen verschillende vormen op de publieke sector af. Als een chatbot met bewoners, als big-data-analyses, als text mining analyses van beleidsdocumenten en individuele dossiers van jongeren die gebruik maken van jeugdhulp, als het gebruik van AI-assistenten die helpen rapporten en documenten op te stellen. De komst van AI zien wij als een goede reden voor een pleidooi voor het belang van de algemene beginselen van behoorlijk bestuur.
AI-woorden
‘AI-woorden’ zijn inmiddels onderdeel van ons dagelijks taalgebruik, soms zonder dat we precies weten wat ermee wordt. Overheden worden belaagd met berichten over hoe AI verbeteringen komt brengen. Twee jaar geleden werden vergelijkbare oplossingen nog gezien als ‘gewoon software’. ‘Algoritme’ is zo’n nieuw AI-woord. Een algoritme is een reeks instructies of regels die zijn ontworpen om een specifieke taak uit te voeren of een bepaald probleem op te lossen. Deze instructies worden stap voor stap uitgevoerd en zijn meestal bedoeld om door een computer uitgevoerd te worden. Algoritmes kunnen variëren in complexiteit van eenvoudige berekeningen, zoals het optellen van twee getallen, tot complexe processen zoals het uitvoeren van zoekopdrachten in grote databases of het aansturen van kunstmatige intelligentie. Vanwege dat laatste is de term algoritme nauw verbonden aan AI en krijgen nu alle software-ontwerpers die een algoritme gebruiken, de zweem van AI.
‘Bias’ is ook zo’n nieuw AI-woord. Het beschrijft het fenomeen dat AI-algoritmes vooroordelen in gegevensbestanden ontdekken en versterken. De combinatie van deze twee begrippen heeft beleidmakers ertoe gebracht om ‘algoritmeregisters’ op te stellen. De bedoeling is om na te gaan of een gebruikt AI-algoritme ‘ethisch’ gebruikt worden. We ondersteunen van harte een verantwoord gebruik van AI, maar de gebruikte gegevensbestanden zijn de reden van de ‘bias’, niet het AI-algoritme.
Gouden bergen bestaan niet
Het is voor bestuurders daarom zaak om kritisch te blijven bij beloofde gouden bergen. Je bent als bestuurder in de publieke sector immers zelf verantwoordelijk voor het functioneren en resultaat van de systemen die worden ingezet. Net als bij reguliere ICT, heeft de invoering van AI een duidelijke bestuurlijke verantwoordelijkheid nodig. Dat is bij ICT-projecten niet altijd het geval gebleken. Te vaak komt nog voor dat beoogde doelen snel wijzigen, waardoor het project letterlijk ontspoort.
In zijn tijd als wethouder liep Floor Kist tegen een voorstel aan: “Geef mij al uw data en ik kom tot verrassende inzichten”. Nog los van de enorme hoeveelheden data waar gemeenten over beschikken, en los van alle privacy schendingen die zo’n uitspraak met zich meebrengt, moet je je hardop afvragen of de leverancier wel overziet hoe ingewikkeld de gemeentelijke maatschappelijke context is. De valkuil is om te denken “Alle bestuurders weten dat, dus dat zal zo’n AI-bedrijf ook wel begrijpen…”
Hoe moet je als bestuurder in de publieke sector hier wél mee omgaan?
Gewoon, net als bij alle andere instrumenten die je inzet om je maatschappelijke taken uit te voeren. AI-initiatieven staan niet op zichzelf maar zouden naadloos geïntegreerd moeten zijn met de bredere beleidsdoelen van een organisatie. Dit concept, bekend als ‘strategische alignment’, is cruciaal om ervoor te zorgen dat AI niet alleen technologische vooruitgang biedt, maar ook echt waarde toevoegt aan de maatschappij.
Wat is de vertaling van ‘bias’ en ‘ethiek’ in de publieke sector? Hiervoor kan je in alle eenvoud teruggrijpen op de algemene beginselen van behoorlijk bestuur. Dit is al jaren een beproefd raamwerk voor bestuurlijke handelen. Voordat de beginselen in 1994 in de Algemene wet bestuursrecht werden vastgelegd, hanteerde de Raad van State ze al. Ze vormen daarmee de ruggengraat van het bestuursrecht en bestuurlijk handelen. Het gaat om twaalf overzichtelijke en begrijpelijke beginselen. Zes formele beginselen gaan over legaliteit, zorgvuldigheid, motivering, rechtszekerheid, fair-play, verbod op détournement de procedure. Zes materiële beginselen gaan over specialiteit, evenredigheid, materiële rechtszekerheid, gelijkheid, en verbod op détournement de pouvoir.
Bestuurlijke besluiten moeten uitlegbaar zijn en volgens een zorgvuldig proces tot stand zijn gekomen. Als alleen de AI het patroon kent, kan een bestuur zich daar dan over verantwoorden?
Ja, dat kan volgens ons. Maar daar is wel wat voor nodig. Informatiesystemen en -processen die op orde zijn, kwalitatieve gegevensbestanden, duidelijke AI-algoritmes die de stappen die het doorloopt zichtbaar maken, liggen aan de basis voor een verantwoorde inzet van AI. We weten echter uit de praktijk én uit onderzoek uit de publieke sector zelf, dat bij de meeste overheidsorganisaties de informatiehuishouding nog niet op orde is. Het maakt dat je als bestuurder extra moet oppassen, voordat je besluit om AI in te zetten.
De juiste vragen stellen
Hoe kan je als bestuurder in de publieke sector hiermee omgaan? Door het proces van de inzet van AI in de organisatie te sturen en de juiste vragen te stellen: wat is het maatschappelijk doel? Is een AI-toepassing het juiste instrument om het doel te bereiken – en zo ja, waarom? Kan de AI-toepassing zich houden aan de algemene beginselen van behoorlijk bestuur?
Doordat AI een steeds grotere rol in ons leven gaat spelen, bestaat het risico dat je je gedwongen voelt om AI-taal te gaan spreken. Onze oproep: Laat AI de taal van de bestuurder leren, niet andersom.
Verantwoordelijkheid en Opdrachtgeverschap
Floor Kist en Maarten Koningsveld schreven samen het boek ‘AI voor Bestuurders in de Publieke Sector: Verantwoordelijkheid en Opdrachtgeverschap’. Dit boek biedt bestuurders concrete handvatten om de juiste keuzes te maken bij de inzet van AI.
Meer informatie
In het hedendaagse bestuurlijke landschap speelt kunstmatige intelligentie (AI) een steeds grotere rol bij het ondersteunen van besluitvormingsprocessen. De integratie van AI kan leiden tot efficiëntere en meer geïnformeerde besluiten. Echter, de zogenaamde ‘black box’ van AI heeft geleid tot zorgen over transparantie en uitlegbaarheid van besluiten, een essentieel aspect binnen de Algemene Beginselen van Behoorlijk Bestuur. Dit is echter geen patstelling.
Hier komt Explainable Artificial Intelligence (XAI) om de hoek kijken, een ontwikkeling binnen AI die streeft naar een grotere openheid over hoe beslissingen worden gemaakt. XAI stelt ons in staat om de redenering achter AI-beslissingen te begrijpen en te communiceren, waardoor AI een betrouwbare partner wordt in het bestuurlijke proces. Dit is van cruciaal belang voor de legitimiteit en acceptatie van AI-gestuurde besluiten. Daarnaast helpt Legal Engineering, met tools zoals Calculemus/FLINT, om wettelijke kaders te integreren in AI-systemen. Hierdoor kan AI niet alleen geavanceerde analyses uitvoeren, maar ook opereren binnen de gestelde juridische grenzen en – en dat is het allerbelangrijkste – verifieerbaar aantonen waar stellingen en conclusies op gebaseerd zijn.
De echte uitdaging? Bestuurders zo ver krijgen dat niet alleen de techniek, maar vooral de bedrijfsvoering en de processen gemodelleerd moeten worden, middels (bijvoorbeeld) Business Process Modellering, afgezet tegen de strakke interpretatie van mandaten. Die AI doos kan het wel.