Van voorspellend rekenmodel tot en met zelfbewuste levensvorm, de potentie van artificiële intelligentie (AI) is net zo verwarrend als veelbelovend. Moeten gemeenten eigenlijk ook iets met AI? Zo ja, hoe dan en – ook best belangrijk - hoe vooral niet?
Beeld: Shutterstock
De gemeente Amsterdam traint op dit moment software om vuilniszakken te herkennen in de stad. Dit om uiteindelijk de stad schoner te maken door vuilnis efficiënter te ruimen, of het nu wel of niet op de vaste ophaalroutes ligt. Hoe wordt software getraind? Heel simpel gezegd: door honderdduizenden beelden van vuilniszakken het label ‘vuilniszak’ te geven en die aan een rekenmodel te voeren. Digitale beelden zijn data. De software herkent in al die data patronen en gaat zelf het label ‘vuilniszak’ toekennen aan alles wat overeenkomt met wat het al heeft ‘gezien’. Belangrijk is om ook een groot aantal beelden te gebruiken van dingen die op vuilniszakken lijken maar het niet zijn, zodat nauwkeurig onderscheid gemaakt kan worden. Dit is objectdetectie, een vorm van machine learning en een toepassing van AI.
Nog een voorbeeld. Gemeente Den Haag ontwikkelde het Wmo-voorspelmodel, dat inzicht moet geven over de toekomstige Wmo-behoefte per wijk van de stad. Het doel is kostenbeheersing en betere capaciteitsplanning van mensen en middelen. Het model is getraind met eigen, historische en anonieme Wmo-data op wijkniveau. Het in kaart brengen van het verleden geeft al inzicht in de toekomst, maar wat dit model intelligent maakt is het gebruik van scenariovoorspellingen voor het doorrekenen van mogelijke beleidswijzigingen. Projectmanager Michiel Deerenberg licht toe: “Beleid is een keuze. Met scenariovoorspelling draaien gebruikers aan de knoppen van het Wmo-voorspelmodel om te berekenen wat de invloed is van een mogelijke beleidskeuze. De kracht van het model is dat we het wijkgericht kunnen gebruiken en het effect van een beleidskeuze over een of twee jaar nu al in beeld kunnen brengen.”
Datadeskundigen
Mooie projecten, interessante ontwikkelingen. Moet iedereen van Aa en Hunze tot en met Zwolle aan de AI? Nee, zegt Deerenberg, alhoewel het goed zou zijn als meer gemeentewerkers op basis van inzicht en vooruitzicht gingen werken. “Het is nog veel onderbuik in plaats van feiten.” Gelukkig horen data bij het kernproces van gemeenten. Tamas Erkelens is lead public tech van de gemeente Amsterdam: “Ambtenaren zijn goed in data, ik vind de datageletterdheid bij gemeenten best hoog. De gemeentelijke basisadministratie is immers ook een database. Alleen de inzet van nieuwe technologie blijft soms achter.” Tino de Velde is manager van het basisteam Data & Monitoring bij VNG Realisatie. “Als we AI zien als het automatiseren van processen en veel rekenkracht om patronen te herkennen in data, dan komt het al een stuk dichterbij huis.” De crux is om de juiste data te gebruiken en data van goede kwaliteit. “Kijk eerst eens naar de logistieke processen binnen de gemeente”, adviseert De Velde. “Het verstrekken van vergunningen, het verwerken van klachten. Onderzoek wat efficiënter kan, denk dat goed uit en kijk vervolgens ook naar de businesscase. Automatiseren is soms duurder dan een deskundige met een spreadsheet.” “Niet doen is soms waardevoller”, vult Erkelens aan, “maar als je als gemeente toch met AI aan de gang wilt, experimenteer dan samen, bijvoorbeeld met andere gemeenten en/of met universiteiten met lage startkosten. Laat eigen gegevensdeskundigen samenwerken met mensen die de nieuwste technieken kennen. Als het alleen een drang tot vernieuwen is, doe het dan niet. Dan komt er een bedrijfje langs met de nieuwste hype en blijkt alles in de praktijk toch lastiger. Een AI-project is toch gewoon een project en logisch verstand is dan het belangrijkste.” “Met beeldherkenning lantaarnpalen scannen is leuk, maar hoe vergaat het de burger die zich meldt bij de balie Burgerzaken?” chargeert Deerenberg. “Begin simpel, kijk vijf jaar vooruit op basis van feiten; predictive analysis met statistische technieken.”
Het grote plaatje
Zorg voor kwalitatief goede data en wees voorzichtig met welke technologie die worden gebruikt. Martin Lopatka van Mozilla Applied Machine Learning schetst het grote plaatje. “Processen die worden geoptimaliseerd met behulp van verzamelde data zijn meestal onderdeel van een groter technologisch ecosysteem dat gedomineerd wordt door de grote tech-bedrijven. Meer data betekent meer invloed voor hen. Stel vragen. Hoe worden data verzameld, wat gebeurt er met de videobeelden die zijn opgenomen, wie is verantwoordelijk voor de gegevens nu en bij eventueel hergebruik? Wat als de beelden andere informatie bevatten zoals gezichten van mensen en kentekens van auto’s?” In het geval van het Amsterdamse voorbeeld worden die automatisch vaag gemaakt en verzamelt de gemeente zelf de gemaakte beelden. Met leveranciers worden afspraken gemaakt in standaard inkoopvoorwaarden, dat de gemeente beslist hoe en waarvoor data kunnen worden ingezet.
Lopatka mag mensen graag aan het denken zetten en gaat nog een stap verder. “Facebook gebruikt afbeeldingen van getagde mensen om hun gezichtsherkenningssoftware te trainen. Die software mag Facebook verkopen aan wie het wil, dus ook voor militaire doeleinden. Kan ik als burger weigeren dat mijn gezicht voor militaire doeleinden wordt gebruikt? Is het relevant?” Is dit niet een beetje vergezocht? “Ik geef vooral aan hoe ingewikkeld zaken rondom data en AI kunnen zijn. Een technologiebedrijf moet een gemeente kunnen uitleggen hoe hun product of dienst werkt en wie waar verantwoordelijk voor is. En een ambtenaar mag een uitleg eisen. Ambtenaren zijn specialisten op hun eigen domein, zij hebben het recht te weten welke rol technologie daarin speelt.” Hij vindt ook dat gemeenten technologiebedrijven mogen weigeren die niet de moeite nemen om helder en transparant te zijn. De Velde vindt weigeren een extreem woord, maar kan zich prima vinden in kritisch zijn richting leveranciers en samenwerkingspartners. “Een bedrijf moet kunnen uitleggen hoe het zijn algoritme heeft opgebouwd. AI is geen vinkje op een lijstje. Blijf vragen stellen.” “En betrek er vanaf het begin een permanente privacy officer bij”, Deerenberg kan het niet vaak genoeg zeggen, maar voelt soms dat hij nog steeds niet wordt gehoord. “Een AI-project heeft vanaf het begin iemand nodig die tijdens het hele project zegt: dit mag niet en dit mag wel volgens de wet. Meestal is de privacy officer een kantoorachtige functie van iemand die achteraf het werk beoordeeld. Dat is te laat. En het is ook geen functie die de projectleider erbij kan doen.”
Vooroordelen
Tot slot is de boodschap dat een bepaalde vooringenomenheid (algorithm bias) altijd aanwezig is. “Meningen zitten verpakt in cijfers”, zegt Erkelens. Filter die vooringenomenheid er zoveel mogelijk uit. Werk met een diverse groep mensen. Voeg een controlemechanisme toe (een stappenplan of een proces) om algoritmes te controleren en creëer vooraf een ethisch kader. Dit kan onder andere met De Ethische Data Assistent. Deerenberg: “In de keuze voor bepaalde features zit ook een vooringenomenheid. Wat niet hoeft is tot het eind der tijden met diezelfde features werken. Bij het Wmo-voorspelmodel leveren wij ook een momentenkalender op, waarin we definiëren wanneer het model gevalideerd en opnieuw getraind moet worden.” Kortom, of gemeentelijke AI nu de vorm heeft van voorspellende analyses of machine learning, denk logisch, wees zorgvuldig, doe het samen met anderen en zorg dat zaken bijgesteld kunnen worden bij voortschrijdend inzicht.
Dit artikel staat ook in iBestuur magazine 36
Over de inzet van AI bij gemeenten publiceerden de VNG, de gemeente Amsterdam, het CBS en Code for NL onlangs dit digitale magazine: ai
Met logisch nadenken is natuurlijk niets mis, maar het is bij lange na niet genoeg, want er zitten een paar fundamentele problemen aan AI die we onder ogen moeten zien.
Allereerst de problemen die AI deskundigen zelf signaleren :
1. Het zal steeds moeilijker worden nog verantwoordelijkheid te nemen voor een complex AI systeem omdat elke vorm van controle daarop , anders dan met een nog gecompliceerder AI systeem, onmogelijk wordt.
2. Het zal steeds moeilijker worden om de uitkomsten van AI te verantwoorden omdat niemand meer kan weten welke verbanden precies in een op AI gebaseerd model gehanteerd worden.
Hoe serieus we deze waarschuwingen moeten nemen blijkt vooral als we ze confronteren met de standaard eisen die we aan beslissingen in het maatschappelijk verkeer stellen.
1. Als AI gebruikt wordt voor beslissingen door overheden moet het , althans in een rechtsstaat, voldoen aan hoge eisen van transparantie , zodat te allen tijde vastgesteld kan worden hoe de beslissing tot stand is gekomen en wat de rechtmatigheid daarvan is.
2. Als AI gebruikt wordt voor beslissingen in het private domein (denk maar aan systemen in bv Boeing’s of Tesla’s) dan kan de maker zich bv niet zomaar onttrekken aan de aansprakelijkheid voor eventuele schade agv die beslissingen.
Als ik de AI experts goed beluister, hebben ze er een hard hoofd in of AI ooit aan die eisen zal kunnen voldoen. Als ze daarin gelijk hebben gaat het of slecht aflopen met AI of met ons.
Wat we dus nodig hebben nu is een fundamentele discussie over de aanvaardbaarheid van AI in het algemeen en in het openbaar bestuur in het bijzonder, want met alleen maar logisch nadenken komen we er niet.