AI inzetten bij grootschalig politieonderzoek, het kan!
Als bij de politie een grootschalig onderzoek wordt ingezet, stromen vaak zo’n 400 tot 500 tips binnen via verschillende kanalen. Die allemaal apart bekijken kost veel tijd en mankracht. Dat kan met AI slimmer en sneller. Avendar is samen met de Nationale Politie een pilot gestart. Technisch kan er al veel, vertelt CEO Marijn van Aerle, maar het moet ook werkbaar zijn binnen de wet- en regelgeving. ‘We hebben hier te maken met een hoog risico-systeem.’
Caselink moet rechercheteams gaan helpen bij het automatisch ordenen, analyseren en prioriteren van tips, zodat waardevolle signalen sneller boven water komen en het menselijk beoordelingsvermogen beter wordt benut. ‘Het ligt voor de hand dat we hierbij met behulp van taalmodellen. Hiermee kunnen relevante data opgehaald worden als tekst.’ Hierbij werden ze wel beperkt in de keuze van taalmodellen, want ‘LLM-modellen zijn nog niet toegelaten binnen de politie’, zegt Van Aerle. Ze konden wel gebruikmaken van BERT, wat staat voor Bidirectional Encoder Representations from Transformers. Dit is een van de eerste grote (open source) taalmodellen. BERT wordt o.a. gebruikt door Google om de betekenis achter zoekopdrachten te begrijpen, wat leidt tot relevantere zoekresultaten.
Van data naar aanhouding
Tips komen binnen via o.a. Politie.nl, de sevicedesk en e-mails. Iedere tip krijgt een prioriteit en een status. Ook worden deze geografisch geplot. Van Aerle laat een voorbeeld zien. Aan woorden worden entiteiten gehangen als adres, persoon, voertuig en context. Daar komt nog wel veel handwerk bij kijken, vertelt hij.
Een verdachte met rode schoenen valt op. Als dit gegeven in diverse tips terugkomt, stijgt de tip in prioriteit. Op basis van locatie kan de verdachte gevolgd worden in zijn bewegingen en mogelijk aangehouden worden.
Hoog risico
Ze zijn met Caselink net de pilotfase door. Een klankbordgroep van twaalf rechercheurs begeleidt de pilot. Tot nu toe wordt alleen gewerkt met tekstdata. ‘Kan ook een koppeling gemaakt worden met camera’s?’, wordt gevraagd. Voorlopig niet, antwoordt Van Aerle. ‘Die koppeling is nu niet mogelijk; het verkrijgen van data is lastig.’
‘Het combineren van data is uiteraard zeer interessant’, vervolgt hij. ‘Technisch kan er al veel, maar het moet ook werkbaar zijn binnen de strenge eisen die de wet- en regelgeving stelt. De informatie die gegenereerd wordt, kan leiden tot aanhouding van mensen en mogelijk zelfs tot een veroordeling. En het is lastig om een feedbackloop in te bouwen om te controleren of de data correct zijn. Dit maakt het een high risk tool volgens de AI-Act.’
Experts en afdelingen betrekken
De uitvoering van de pilot gaat niet zonder slag of stoot. ‘Zorg voor betrokkenheid van de afdelingen die erbij betrokken zijn. En betrek experts zo vroeg mogelijk in het proces’, adviseert Van Aerle. Hij vond het lastig om goed te “navigeren” binnen de politieorganisatie. Soms stuitte hij op muren, zoals: ‘Dit project staat niet op onze roadmap’. Maar het enthousiasme bij direct betrokkenen is groot. Van Aerle: ‘Het succes zit misschien ook wel in het klein houden van het project.’
Transparant
Naast de pilot voor de Nationale Politie presenteerde Van Aerle nog twee AI-projecten. Zo wordt bij Florijn AI ingezet voor de goedkeuring van kredietaanvragen, waarbij een koppeling gemaakt wordt met bankrekeningen. Dan nog moet informatie door de mens gecontroleerd worden. De data moeten correct zijn. ‘Soms wordt omzet door het systeem niet als omzet gezien. Dat kan leiden tot een onterechte afwijzing.’ ‘Houd de communicatie menselijk’ is een tweede belangrijke tip. Aanvragers krijgen binnen 24 uur uitsluitsel. ‘Als je binnen vier seconden een afwijzing krijgt, voelt de klant zich niet serieus genomen.’ En als dan een afwijzing volgt, zul je moeten uitleggen waarom. ‘Wees extreem transparant als je van dit soort AI-systemen gebruikmaakt.’
Screening
In het derde project wordt AI ingezet om een voorspelling te doen of een vergunningsaanvraag gedaan wordt voor criminele activiteiten. Met een LLM worden ongestructureerde data ingelezen om vervolgens de inconsequenties eruit te halen. Klopt het verhaal? ‘Je kunt met het model geen vergunning afwijzen’, zegt Van Aerle, ‘maar je kunt wel de juiste vragen stellen!’
AI & Overheid
Op 12 november organiseerde iBestuur AI & Overheid 2025. Marijn van Aerle presenteerde drie hoog risico systemen waaraan Avendar een bedrage heeft geleverd.
Lees meer verslagen van plenaire bijdragen en sessies tijdens AI en Overheid 2025