Binnen de rechtspraak wordt her en der geëxperimenteerd met de inzet van kunstmatige intelligentie. "Terecht", aldus Mark Elstgeest, "want er liggen legio kansen en mogelijkheden." Toch lijken sommige organisaties binnen de rechtspraak nog niet overtuigd. De angst dat 'de robotrechter de rechtspraak overneemt' en demonisering van algoritmes zijn dan vaak de donkere wolken die geschetst worden. "Het lijkt soms alsof de angst voor extreme doorontwikkeling ertoe leidt om maar helemaal geen stappen te zetten. Terwijl je in mijn ogen juist goed innoveert door dit in overzichtelijke stappen te doen en met duidelijke spelregels."
Paleis van Justitie in Amsterdam. Beeld: Fred Romero / Flickr CC BY 2.0
Artificial Intelligence (AI) is een krachtig instrument en het biedt kansen, juist in de rechtspraak (met rechtspraak bedoel ik hier niet alleen de organisatie Rechtspraak, maar ook het Openbaar Ministerie (OM), de politie en andere ketenpartners). Er is in de rechtsprocessen sprake van een oneindige hoeveelheid aan data en enorme dossiers. Een officier van Justitie kan zich laten ondersteunen door kunstmatige intelligentie voor het formuleren van de strafeis. Een rechter kan vergelijkbare zaken analyseren met hulp van AI. Het zoeken naar jurisprudentie wordt gemakkelijker want de laagdrempeligheid van AI-instrumenten (ICT applicaties) maakt dit eenvoudiger dan ooit. En ‘de buitenwereld’1 doet het al: in de advocatuur worden AI-dienstverleners ingeroepen om te ondersteunen en data-analisten maken vergelijkingen tussen rechters op het gebied van hun efficiency.
Maar binnen de rechtspraak lijken sommige organisaties nog aarzelend ten opzichte van dit thema. De angst dat ‘de robotrechter de rechtspraak overneemt’ en demonisering van algoritmes zijn dan de donkere wolken die geschetst worden. Ik denk dat er een praktische manier is om ermee aan de slag te gaan. En dat je het moet doen, voordat de buitenwereld je hierin voorbij streeft en de ‘robot advocaat’ je telkens een zet voor is.
Kansen en mogelijkheden
Artificial Intelligence voelt misschien nog als toekomstmuziek, maar verschillende organisaties binnen de rechtspraak zijn al aan het experimenteren met de mogelijke toepassingen ervan.
Zo zet de Rechtspraak AI in om grote hoeveelheden data te analyseren om zo sneller patronen te ontdekken, doen zij aan process mining om administratieve processen doelmatiger in te richten en kan AI worden gebruikt om ter ondersteuning van rechters, door het selecteren van relevante jurisprudentie of door het aandragen van relevante argumenten die bij de uitspraak kunnen worden gebruikt2.
Ook de politie is al aan de gang met het onderzoeken de mogelijkheden van Artificial Intelligence. Minister Grapperhaus schrijft in een kamerbrief over de kansen die AI en algoritmes kunnen bieden voor de betere uitvoering van de politietaken.3 “Ze kunnen bepaalde toepassingen criminele verbanden in opsporingsonderzoeken zichtbaar maken die voor een mens moeilijk, tijdrovend of zelfs helemaal niet te vinden zijn. Daarnaast kan met AI grote hoeveelheden data worden doorzocht, georganiseerd en gefilterd, zodat een politiemedewerker gerichter een analyse kan uitvoeren.”4 Daarnaast stelt AI de politie in staat om strafbare feiten te onderzoeken en bloot te leggen, die zonder AI volledig buiten beeld waren gebleven. Criminaliteit wordt steeds complexer én digitaler, “het gebruik van AI is daarom geen luxe, maar een absolute noodzaak”.5
Het Openbaar Ministerie onderzoekt hoe AI kansen kan bieden voor het oplossen van de ruim 1700 openstaande cold cases. “Om de beperkte forensische capaciteit van rechercheurs en het NFI effectiever in te kunnen inzetten, wil de politie de toepassingsmogelijkheden van kunstmatige intelligentie in de forensische screening verder onderzoeken.”6 Het doel van dit experiment is om tot een actuele ranglijst van cold cases te komen, gerangschikt op de waarschijnlijkheid om kansrijke sporen voor nader onderzoek te bevatten. Deze lijst is bedoeld als sturingsinformatie, geen automatische besluitvorming. Er zal altijd een menselijke beoordeling en beslissing volgen of een zaak nader onderzocht en verder opgepakt dient te worden.7
Het moge duidelijk zijn dat er binnen de rechtspraak allerlei kansen en mogelijkheden liggen op het gebied van AI. Maar de inzet van AI dient op een verantwoorde manier te gebeuren, met de waarborgen die daarbij horen.
De (on)zekerheden van de toekomst
Het gebruik van artificial intelligence brengt ook uitdagingen met zich mee: hoe ga je bijvoorbeeld op een ethisch doordachte manier om met gevoelige data? En hoe voorkom je dat data verkeerd geïnterpreteerd wordt door menselijke bias? Om de verantwoorde inzet van AI te garanderen zijn er een aantal spelregels waar we ons aan moeten houden:
- Volg heldere ethische richtlijnen
De Europese Commissie heeft in april 2019 een rapport uitgebracht met daarin ethische richtlijnen voor betrouwbare AI. Zij noemen in hun rapport vier ethische beginselen die ontwikkelaars en gebruikers van AI altijd moeten naleven: respect voor de menselijke autonomie, het voorkomen van schade, verantwoording en rechtvaardigheid. Elke organisatie die AI-instrumenten inzet in hun processen, zou soortgelijke ethische richtlijnen moeten nastreven. Zorg er ten slotte voor dat iedereen in de organisatie bekend is met deze richtlijnen.
- Wees bewust van de menselijke bias
Machines en algoritmes hebben in principe geen vooroordelen. Data wordt pas informatie wanneer iets of iemand er betekenis aan hangt. In de meeste gevallen is dit een menselijke actor en people are flawed. De grootste uitdaging is de menselijke bias: de cognitieve vertekening van de mens achter het AI-instrument. De data kan verkeerd geïnterpreteerd worden door bijvoorbeeld een confimation bias – wanneer een resultaat wordt geaccepteerd omdat daarmee een eerdere overtuiging wordt bevestigd – en de beslissing is daarmee ongegrond. Wees je bewust van de menselijke bias en corrigeer waar nodig.
- Zorg dat de beslissingen herleidbaar en uitlegbaar zijn
Zeker in de rechtspraak is dit van groot belang: maak het altijd mogelijk om uit te leggen hoe bepaalde beslissingen zijn genomen. Wanneer een rechter een uitspraak doet met behulp van AI-instrumenten en algoritmes, moet het denkproces herleidbaar zijn en moeten de relevante argumenten en data kunnen worden aangedragen. Dat is een uitgangspunt van de werkwijze: het algoritme mag lerend zijn, maar de mens houdt toezicht.
- Maak de data écht anoniem
Het anonimiseren van bijvoorbeeld uitspraken zal met de komst van AI steeds complexer worden. Het is niet meer voldoende om alleen de naam van een gedaagde of verdachte te verwijderen. Door het netwerk van allerlei systemen en het kunnen combineren van een uitspraak met heel veel andere open data is er gemakkelijk achter te komen om welke persoon en welke zaak het gaat, zelfs als de namen zijn verwijderd. Voor een buitenstaander mag de data in zo’n geval niet herleidbaar zijn, dat is in strijd met de privacywetgeving. De anonimisering van de data moet daarom heel goed ingericht worden.
- Creëer continue feedbackcycli in de AI-instrumenten
Het incorporeren van feedbackcycli is een van groot belang voor elke AI-oplossing. Zonder de mogelijkheid om continu te verbeteren, zullen gebruikers nooit volledig op de technologie vertrouwen en zonder het vertrouwen zal het AI-instrument nooit het ware potentieel bereiken. Het AI-instrument moet daarom in staat zijn om visueel bewijs te leveren van de data en het proces, zodat de gebruiker kan corrigeren en verbeteren.
Deze (vijf) spelregels maken het mogelijk om op een praktische en verantwoorde manier gebruik te maken van artificial intelligence binnen de rechtspraak.
Ondanks het feit dat er binnen de rechtspraak al geëxperimenteerd wordt met de inzet van AI-instrumenten, lijkt het alsof er nog steeds organisaties en medewerkers zijn die wat angstig tegenover dit onderwerp staan. Wat houdt die organisaties tegen om de innovaties te gaan beproeven?
Bang voor de robotrechter?
Het lijkt soms alsof de angst voor extreme doorontwikkeling ertoe leidt om maar helemaal geen stappen te zetten. Terwijl je in mijn ogen juist goed innoveert door dit in overzichtelijke stappen te doen en met duidelijke spelregels. Zo blijven we met elkaar leren en ontwikkelen en boeken we samen vooruitgang. We hoeven nog niet bang te zijn dat een robotrechter al het werk overneemt: zo ver is de technologie nog niet en ik verwacht ook niet dat het zo ver zal komen. Het bereik van AI en de manier waarop de systemen zelflerend zijn, is onvoldoende om de mens volledig te vervangen. Als hulpmiddel is AI ontzettend kansrijk, maar we hoeven echt niet te vrezen voor RoboCop taferelen!
Mark Elstgeest is partner bij Morgens. Deze bijdrage is geschreven op persoonlijke titel
1 https://www.rechtspraak.nl/SiteCollectionDocuments/rechtstreeks-2019-02.pdf p. 17
2 P.47
3 Kamerbrief 03-12-2019
4 Kamerbrief 03-12-2019
5 Kamerbrief 03-12-2019
6 Kamerbrief 04-02-19
7 Kamerbrief 04-02-19
Dit artikel van Elstgeest laat goed zien wat het kernprobleem is bij de toepassing van AI in organisaties : gebrek aan interprofessionele kennis van zaken bij de bij implementatie betrokken in- en externe spelers. Anders gezegd : de betrokken specialisten spreken elkaars taal gewoon niet. Dat Elstgeest geen jurist is noch expert mbt de inrichting en werking van het nederlandse justitiele apparaat blijkt redelijk onbarmhartig uit deze bijdrage van zijn hand. Dat de juristen in dat apparaat geen AI specialisten zijn hoeft geen betoog. Dan schort het al gauw aan wezenlijke communicatie.
Het helpt daarom niet om in dit soort situaties de “andere kant” ervan te beschuldigen “innovatiemijdend” te zijn of “experimenteerangst” te hebben. Als Elstgeest dat in zijn projecten meent waar te nemen doet hij er verstandiger aan het probleem eerst bij zich zelf te leggen, nl. dat hij er kennelijk niet in slaagt de organisatie te overtuigen van zíjn expertise op hún terrein. Want voldoende interprofessionele kennis is echt een voorwaarde voor een succesvolle implementatie van (in dit geval) AI toepassingen.