Robots als rechtsprekers?

door: Rob van den Hoven van Genderen, 28 mei 2018

Zullen rechters en advocaten op termijn worden vervangen door robots? Kan de angst voor vooringenomenheid of chagrijnige rechters worden weggenomen door objectieve, neutrale robotrechters? Het wraken van rechters door Geert Wilders zou dan in ieder geval niet meer hoeven voor te komen. Maar is de robotrechter wel zo objectief als de algoritmen zijn ontworpen door menselijke programmeurs? En worden ook ethische beginselen meegenomen door eisen te stellen als ‘ethics by design’?

robotrechter

Beeld: Shutterstock

Ervan uitgaande dat de menselijke rechter een intelligent wezen is dat deze aspecten afdoende in zijn beslissing betrekt, kunnen we er dan ook op vertrouwen dat de vorm van intelligentie in moreel juridische zin en met normbesef kan worden verwacht van de kunstmatige intelligente (K.I ) rechter, zoals door David Wechsler in 1955 werd geformuleerd: “Het totale vermogen van het individu om doelbewust te handelen, rationeel te denken en effectief om te gaan met zijn omgeving.”

Volgens Mireille Hildebrandt is dat een laatste een brug te ver. [1 ] In haar bijdrage om te komen tot een standpunt artificiële intelligentie (AI) en recht stelt zij dat K.I, door haar gekenschetst als ‘machine learning’ wordt ingezet om juridische kennis te verrijken, door onverwachte inzichten te bieden op basis van het doorzoeken van grote hoeveelheden tekst. Zij stelt verder dat dit tegenwicht kan bieden aan vastgeroeste ideeën, omissies en inconsistenties en nieuwe argumentatielijnen kan aandragen. Zij ziet met name een probleem in het feit dat de K.I niet gebaseerd is op inzicht in de materie of begrip voor de belangen van partijen, maar een puur statistisch-wiskundige werkwijze is.

Uitgaande van voeding met voorgaande jurisprudentie betekent dit dat er weinig ruimte komt voor afwijking in standpunten. Dit geldt inderdaad voor ‘machine learning’ in beperkte zin: door patronen in beschikbare gegevens te identificeren en vervolgens de kennis toe te passen op nieuwe gegevens. Hierbij is niet meegenomen dat de toepassing van K.I zich verder zal ontwikkelen, in de zin van verwerking van andere dan statische data, zoals sociale–, emotionele en culturele impulsen uit de betreffende omgeving, en op basis daarvan zelfstandig beslissingen kan nemen.

Van status quo naar de toekomst

Voor een inschatting van een toekomstig beeld van de rechtspraak is het verstandig de ontwikkeling te bezien vanuit de status quo. Wanneer en waarom zouden we de mogelijke inzet van kunstmatige intelligentie en robots overwegen ter versterking van kwaliteit van de rechtspraak? Eind 2017 ontstond paniek bij de rechtsmacht aangezien in Oost- en Noord-Nederland het meer dan een jaar duurde voordat een hoger beroep zou worden afgehandeld. Dat schuurde aan tegen een overtreding van de redelijke termijn van artikel 6 EVRM. Gerechtshof Arnhem-Leeuwarden riep de hulp in van collega’s uit Amsterdam om de grote achterstand in de afhandeling van zo’n 5000 zaken weg te werken.

In hoeverre kan deze overbelasting van de rechterlijke macht worden weggenomen door kunstmatig intelligente assistenten? In 2016 wees een experiment met een kunstmatig intelligent algoritme uit dat op basis van 584 zaken van datzelfde Europees Hof voor de Rechten van de Mens met 79 procent nauwkeurigheid een vonnis kon worden gewezen dat overeenkwam met het daadwerkelijke vonnis. Maar op de dag van de rechtspraak, 28 september 2017, resulteerde de toepassing van het data-analyseprogramma LexIQ in nogal wat missers in vergelijking met de rechter van vlees en bloed. Het betrof hier overigens maar twee zaken. De kans dat K.I-technologie in hoog tempo wordt verbeterd in zorgvuldigheid acht ik zeer waarschijnlijk, gezien de ontwikkeling van de mogelijkheden van kunstmatige intelligentie met de wet van Moore in het achterhoofd. Zeker wat betreft de snelheid van afhandeling zal er fors winst te behalen zijn met behulp van vergelijkbare programma’s. De vraag die velen bezighoudt is of de motivatie van de beslissingen door dit soort systemen wel voldoende transparant is om de toets voor gebruik door het juridisch metier, en met name door de rechterlijke macht, te doorstaan.

Hierbij kan per analogie worden verwezen naar voorbeelden van toepassing van K.I-systemen bij de rechterlijke macht, advocatuur en de opsporing en vervolging in de Verenigde Staten en het Verenigd Koninkrijk. In de VS wordt al op ruime schaal gebruikgemaakt van kunstmatige intelligentie voor zowel het vaststellen van borgsommen alsook de ‘risk assessment’ voor tijdelijke in vrijheidstelling bij strafzaken. [2] Bij het hoger beroep, ingesteld door een veroordeelde die met behulp van een K.I-systeem ‘Compass’ was veroordeeld en inzage wilde hebben in hoe het ’blackbox‘ algoritme tot die veroordeling was gekomen, achtte het hooggerechtshof het afdoende dat de kennis van de output van het algoritme voldoende transparant was en zodoende geen grond voor verwerping van het vonnis opleverde.

De Europese Commissie benadrukte juist dat, op basis van de resolutie van het Europees Parlement en de Algemene verordening gegevensbescherming (AVG/GDPR), het van groot belang is inzicht te hebben in de werking van het algoritme. [3] In dergelijke gevallen hebben betrokkenen recht op zinvolle informatie over de bij de beslissing betrokken logica.

Ook binnen de advocatuur lijkt het gebruik van K.I-systemen in opkomst door de toepassing van K.I-analyse algoritmen. In een vergelijkende test tussen 20 menselijke advocaten en het K.I-systeem ‘Law Geex Artificial Intelligence algorithm’, scoorde de K.I-toepassing aanmerkelijk beter op het gebied van analyse en verbetering van een aantal standaard contracten. De accuratesse van het systeem was 94 procent. De advocaten scoorden 85 procent. Ook niet slecht, maar de advocaten hadden daar gemiddeld 92 minuten voor nodig en het K.I-systeem 26 seconden!

Voor het opsporingswerk van politie is ook al een K.I-big-datasysteem ontwikkeld (VALCRI) om de arbeidsintensieve aspecten van de misdaadanalist in enkele seconden uit te voeren. Het analyseert grote hoeveelheden data, zoals teksten, laboratoriumrapporten en politiedocumenten, om elementen te selecteren die verder onderzoek rechtvaardigen. De Britse politie in West Midlands zal VALCRI voor de komende drie jaar testen met geanonimiseerde gegevens, wat neerkomt op ongeveer 6,5 miljoen dossiers. Een soortgelijk proces is gaande bij de politie in Antwerpen.4 Bovengenoemde toepassingen zullen zonder twijfel steeds vaker worden ingezet, maar zijn met name gericht op analyse van de data ter ondersteuning van de besluitvorming door natuurlijke personen. Zal hierdoor de neiging ontstaan om blind te varen op de uitkomsten van die analyses?

Verschillende opvattingen

Kan de robotrechter een oplossing bieden door zowel snelheid als zorgvuldigheid in het vonnissen te vergroten? Frits Bakker gaf op de Dag van de Rechtspraak in 2017 aan dat er wat dat betreft onderscheid mag worden gemaakt op grond van de aard van de rechterlijke beslissing, waarbij routinematige beslissingen wellicht door een K.I-systeem kunnen worden genomen: ‘Als de rechterlijke beslissing draait om de inhoudelijke beoordeling van feiten en conflict, wil de burger dat hij gezien en gehoord wordt. Dat is hard nodig. En als de rechterlijke beslissing een routinematige beslissing is, wil de burger snel, efficiënt en goedkoop door het proces worden geleid.’ [5]

Jaap van de Herik sprak in juni 1991 zijn inaugurele rede uit onder de titel ‘Kunnen computers rechtspreken?,’ waarbij hij verwachtte dat hier in de toekomst sprake van zou kunnen zijn. [6] De bevestiging van dat antwoord herhaalde hij in 2016 in het blad Mr. door te stellen dat hij verwachtte dat niet alleen routinematige, maar verdergaande, vonnissen rond 2030 al door de robotrechter zullen worden gewezen.

Henri Prakken lijkt hier een wat afwijkende mening over te hebben. In het NJB (Nederlands Juristenblad) van begin dit jaar gaf hij aan dat er een denkfout wordt begaan door de voorspelkracht van algoritmes en mogelijke analyses op basis van data-invoer te verwarren met besluiten. Volgens hem berust deze denkfout op een verkeerd idee over de voorspellende waarde van algoritmes, waarbij het verschil tussen het voorspellen en het nemen van juridische beslissingen wordt veronachtzaamd. [7] Hier heeft hij wel een punt. De (huidige) algoritmes zijn zodanig opgesteld dat ze alleen kunnen voorspellen op basis van numerieke waarden. Motivering van het vonnis is (nog) niet mogelijk. In een special omtrent ‘Legal Tech’ in het blad Computerrecht geven Dory Reiling, Leo van der Wees, Kees van Noortwijk en Richard de Mulder aan dat er nog een technologisch tekort bestaat aan het gebruik van zelflerende algoritmen ter ondersteuning, laat staan ter vervanging van besluitvorming door de rechterlijke macht. [8]

Conclusie

Volgens Henri Prakken kunnen big-data-algoritmes in meer algemene zin voor rechters en andere juristen zeker nuttig zijn, maar hij ziet een robotrechter nog niet aan de juridische einder verschijnen. Van Noortwijk en De Mulder zien vooral een betere ontsluiting van relevante, geselecteerde informatie. Van den Herik ziet zeker een toenemende rol voor zelfstandige beslissingsmodellen, maar ook hij sluit zijn ogen niet voor de risico’s. Als de voorstellen van de computers steeds meer samenvallen met het oordeel van de rechters, ontstaat het gevaar van een sluipend proces van monotisering, hetgeen ook al door Maxim Februari in zijn bijdrage in NRC in 2015 werd gekenschetst met de woorden: ‘Robotrechters produceren McDonald’s rechtspraak.’ [9]

Er is zeker een risico van ongewenste eenvormigheid, indien teveel wordt gevaren op statistische gegevens waarbij geen rekening wordt gehouden met de omstandigheden van het geval. De huidige stand van K.I brengt dit gevaar met zich mee omdat er sprake is van ‘narrow design’, gericht op een beperkte taak. Pas als er sprake zal zijn van ‘dynamic adaptive’ design zullen alle omstandigheden meewegen bij de besluitvorming en kan sprake zijn van een acceptabel gemotiveerd vonnis.

Hoewel het verleidelijk is om nieuwe vergezichten in de ontwikkeling van K.I in de rechtspraktijk te omarmen, drukt de realiteit van de moeizame toepassing van KEI (Programma Kwaliteit en Innovatie rechtspraak)ons toch weer met de neus op de feiten. Hoewel…

‘People overestimate the impact of AI in the short term, and underestimate the impact of AI in the long term’. - Richard Susskind

Rob van den Hoven van Genderen is directeur Center Law & Internet, VU en Managing Partner Switchlegal Advocaten, Amsterdam

[1] Standpunt artificiële intelligentie en recht ten behoeve van de Vaste commissie voor Justitie en Veiligheid Tweede Kamer der Staten-Generaal , 21 maart 2018
[2] Courts Are Using AI to Sentence Criminals. That Must Stop Now
[3] Gebaseerd op de AVG, geautomatiseerde verwerking, inclusief profilering. Artikel 13, 14, 15 en 22
[4] Are We Ready for Robot Judges?
[5] ‘Terug naar rechter van vlees en bloed dankzij techniek’
[6] H.J. van den Herik, Kunnen Computers Rechtspreken?, oratie Leiden, 1991.
[7] NJB (4), 23 januari 2018.
[8] A.D. Reiling en L. Van der Wees, Automatisering in het rechtsbedrijf; en K. van Noortwijk en R. de Mulder, Special Legaltech, Computerrecht, 2 april 2018.
[9] Maxim Februari, NRC Handelsblad, 25 augustus 2015, p.16.

tags: , , ,

- - - - -

De met een * gemarkeerde velden zijn verplicht. U ziet eerst een voorbeeld en daarna kunt u uw bijdrage definitief plaatsen. Uw e-mailadres wordt niet op de site getoond. Reacties zonder achternaam worden verwijderd. Anoniem reageren alleen in uitzonderlijke gevallen in overleg met de redactie.