Data en ai
Podium

Een eigen AI-strategie voor ‘De rechtspraak’

Camerabeelden op laptop
De Europese verordening verbiedt AI-systemen op het gebied van biometrische identificatie, maar laat ruimte voor uitzonderingen in het geval van rechtshandhavingsdoeleinden.

Met de aankondiging van minister van Rechtsbescherming Franc Weerwind dat ‘De Rechtspraak’ – de organisatie bestaande uit de nationale rechterlijke instanties – medio 2024 met een eigen AI-strategie komt, en de positieve stemming in het Europees Parlement over de baanbrekende Europese AI-verordening, staan we aan de vooravond van belangrijke veranderingen.

De verordening, waarmee de Europese Unie een wereldwijde norm wil stellen voor hoe overheden en bedrijven AI gaan inzetten, stelt ook regulering en voorwaarden aan het gebruik van AI in de strafrechtspleging, in een poging een raamwerk voor verantwoorde implementatie te creëren. Hoewel een stap in de goede richting, is regulering alleen niet genoeg om te verzekeren dat AI de fundamenten van ons strafrecht niet ondergraaft. Daarvoor hebben we een diepgaandere benadering nodig die, naast de juridische en technologische, ook de psychologische en ethische aspecten van het gebruik van AI omvat.

Een sleutelaspect van de Europese verordening is de classificatie van AI-systemen naar risiconiveau. Toepassingen in rechtshandhaving en rechterlijke ondersteuning krijgen het label ‘hoog risico’, wat inhoudt dat deze aan strenge eisen moeten voldoen, waaronder een beoordeling van de impact op fundamentele rechten, registratie in een EU-databank en voortdurende monitoring. Burgers kunnen bovendien klachten over de toepassing van deze systemen indienen, wat bijdraagt aan transparantie en verantwoordelijkheid.

AI kan geen vervanging zijn van de rechter.

Inzet AI bij rechtshandhaving

In Nederland wordt AI steeds vaker ingezet in de rechtshandhaving. Voorafgaand aan het strafbare feit als het gaat om ‘predictive policing’, en nadien als het gaat om grootschalige data-analyse en (gezichts) herkenningssoftware. Een voorbeeld van predictive policing is het door de Amsterdamse politie in 2014 ontwikkelde CAS (Criminaliteits Anticipatie Systeem), een systeem om criminaliteit te voorspellen, zoals waar de grootste kans bestaat dat de volgende woninginbraak plaatsvindt. Grootschalige data-analyse met AI vond plaats in de Marengo-strafzaak, waarin de Amsterdamse rechtbank Ridouan Taghi heeft veroordeeld tot levenslang. In deze zaak is de tool ‘Hansken’ door de opsporing gebruikt om 25 miljoen berichten van cryptotelefoondienst Ennetcom te analyseren, waarvan de resultaten in belangrijke mate hebben bijgedragen aan de veroordeling van Taghi.

Hoewel AI op dit moment nog geen functie heeft in de rechterlijke ondersteuning, is de verwachting dat AI ook daar gebruikt zal gaan worden, zoals bij het selecteren en waarderen van bewijsmateriaal in de context van het rechterlijke beslissingsmodel. De Europese AI-verordening loopt op die ontwikkeling vooruit, maar benadrukt dat AI geen vervanging kan zijn van de rechter, en de definitieve rechterlijke beslissing altijd door een mens genomen moet worden.

Een bijzondere positie is weggelegd voor AI-systemen op het gebied van biometrische identificatie, zoals gezichtsherkenningssoftware. De verordening verbiedt deze, maar laat ruimte voor uitzonderingen in het geval van rechtshandhavingsdoeleinden. Voorwaarde is dat het gaat om opsporing of het voorkomen van bepaalde ernstige misdrijven én dat er voorafgaand aan de inzet toestemming van de rechter is verkregen, tenzij toestemming niet kan worden afgewacht.

Voor AI geldt: hoe meer data hoe beter. Dat staat op gespannen voet met de privacybelangen van de burgers.

Deze ontwikkelingen roepen belangrijke vragen op over de impact van AI op de fundamenten van ons strafrecht, met name het recht op een eerlijk proces en het verbod van discriminatie. Waar dit toe kan leiden laat het schrijnende voorbeeld van de onterechte aanhouding van Porcha Woodruff zien. Woodruff, destijds 8 maanden zwanger, werd in 2023 in Detroit aangehouden en vastgezet als gevolg van een foutieve gezichtsherkenning door AI. Een aannemelijke verklaring voor deze fout is volgens experts gelegen in het feit dat de gebruikte technologie en de onderliggende dataset raciale vooringenomenheid kent.

Regulering alleen volstaat niet

Regulering is een essentiële eerste stap om de fundamenten van het strafrecht te waarborgen, maar het volstaat niet om ons rechtssysteem volledig tegen de complexe invloed van AI te wapenen. Wanneer AI-systemen gebrekkig zijn ontworpen of onjuist gebruikt worden, kunnen ze in strijd zijn met fundamentele rechten, zoals het recht op een eerlijk proces op grond van artikel 6 van het Europees Verdrag voor de Rechten van de Mens. Daarom hebben we een diepgaandere benadering nodig die niet alleen de juridische en technische, maar ook de psychologische en ethische aspecten van AI omvat. Nederland is niet slechts een plaats delict en dataset. We moeten nadenken en discussiëren over hoe en wanneer we de toepassing van AI in de strafrechtspleging moreel aanvaardbaar vinden. Voor AI geldt: hoe meer data hoe beter. Dat staat op gespannen voet met de privacybelangen van de burgers.

Als onderzoekers dagen we onszelf, de wetgever, het openbaar bestuur en rechtshandhaving en anderen binnen het strafrecht uit om verder te kijken dan alleen regulering. De vraag is namelijk of juristen in staat zijn om systeemfouten in een concreet geval tijdig te identificeren, zoals in het toeslagenschandaal overduidelijk niet gelukt is.

Samenwerken binnen en buiten de strafrechtketen

De inzet van AI biedt ongekende mogelijkheden. We moeten binnen en buiten de strafrechtketen samenwerken om een toekomstbestendige benadering van AI te ontwikkelen, waarbij mensenrechten – en in het bijzonder de rechten van verdachten – worden gewaarborgd. Laten we kritisch kijken naar de rol van AI in het veranderen van de aard van oordeelsvorming, het beïnvloeden van besluitvormingsprocessen en het vormgeven van de toekomst van ons rechtssysteem. Daar ligt een opdracht voor De Rechtspraak in de vast te stellen AI-strategie.

  • Vincent Hoek | 8 april 2024, 12:12

    Het Recht is te belangrijk om over te laten aan Juristen. Multidisciplinair ontwikkelen zou daarom verder moeten gaan dan juristen, technologie-experts en ethici, maar ook historici, taalkundigen en media kunstenaars moeten omarmen om een holistische benadering van AI in het rechtssysteem te ontwikkelen. Kennis van Legal Engineering methoden is essentieel om effectief gebruik te maken van AI in het rechtssysteem. Dan kom je ook op een framework waarin duidelijk wordt hoe AI-algoritmen beslissingen maken, wat onpartijdigheid en rechtvaardigheid bevordert en zorgt ervoor dat AI-systemen kunnen worden gecontroleerd en dat verschillende losse AI’s ook ELKAAR controleren. Als we dat doen gaan we anders denken over wat duidelijke regelgeving is. Namelijk niet zozeer rond het gebruik van AI op het huidige Recht, maar ook dankzij een herinterpretatie van het Recht door AI. Veel organisch gegroeid recht is helemaal niet zo recht. Het vergelijken met AI (vooral Large Language Models) van wetsteksten uit verschillende EU landen alleen al, zal behoorlijke herinterpretatie opleveren van filosofische en ethische overwegingen onder druk van de AI focus op ontologie, taxonomie en semantiek. Wat in Nederland prima mag, kan in een ander land verboden zijn.
    AI-systemen moeten worden ontworpen met respect voor menselijke waarden en rechten, maar wiens waarden en wiens rechten en ja, natuurlijk moet het gebruik van biometrie vergezeld gaan van strenge privacybescherming en strikte normen voor foutmarges en etnische universaliteit. Er bestaan alleen tientallen soorten biometrische technieken en producten en procedures en die zijn niet allemaal even goed, dus waarom niet integraal kiezen voor verifieerbare attributen, waaronder biometrische, op Level of Assurance niveau? Zo wordt het recht onder druk van AI een functie van context verificatie en identiteit verificatie .

    Er ontstaan compleet nieuwe disciplines. AI kan niet alleen (be) redeneren, maar ook programmeren. Dus kunnen we Legal Engineering methoden, zoals Calculumus-FLINT sneller inzetten dan gedacht. Zo kunnen we niet alleen wettelijke en ethische regels modelleren, maar ook door specifiek getrainde Narrow AI’s in real time laten controleren om onpartijdigheid en rechtvaardigheid te waarborgen. Maatschappelijk is dat keihard nodig, want dankzij Large Language Models is ook Legal Warfare eenvoudiger geworden, over taal- en landsgrenzen/jurisdicties heen. Lawfare is een term die verwijst naar het gebruik van juridische systemen en principes om een politieke of militaire vijand te verzwakken of te delegitimeren. Mensen zetten data technieken in om de wetgeving of juridische procedures van tegenstanders in diskrediet te brengen, financieel te ondermijnen, hun activiteiten te belemmeren of hun reputatie te schaden. Recente voorbeelden zijn de zaak van milieuorganisatie Urgenda tegen de Nederlandse staat, waarbij juridische middelen zijn ingezet om de overheid te dwingen meer actie te ondernemen tegen klimaatverandering. In 2019 oordeelde de Hoge Raad dat de Nederlandse staat meer moet doen om de uitstoot van broeikasgassen te verminderen, wat een precedent schepte voor soortgelijke zaken wereldwijd. Je kunt ook denken aan de Poolse juridische hervormingen en de daaropvolgende rechtszaken. De Europese Unie heeft rechtszaken aangespannen tegen Polen vanwege hun controversiële hervormingen van het juridische systeem, die volgens critici de onafhankelijkheid van de rechterlijke macht bedreigen. Ook een typisch voorbeeld waarbij juridische mechanismen slim worden gebruikt om nationaal beleid dat als schadelijk voor de rechtsstaat wordt gezien, te manipuleren. Je ziet LawFare ook dagelijks terug in de politieke misinformatie en juridische strijd in Amerikaanse presidentscampagne om twijfel te zaaien over de legitimiteit van de rechtszaken tegen Trump. We leven in een tijd dat het dankzij AI makkelijker is dan ooit om over de as van het recht het politieke discours te beïnvloeden en de publieke perceptie te sturen. Wat schadelijk is voor het vertrouwen in democratische instellingen en processen; juist vanuit een perspectief van politieke ethiek en rechtvaardigheid. Laten we dus AI niet zien als bedreiging, maar als kans om de randvoorwaarden van onze inzet van logica goed te beschrijven. Wat is een recht? Wat is een plicht? Wat is een norm? Wat is een handeling? Erkende AI, onder erkende security, kun je dan inzetten om beïnvloeding te herleiden in miljoenen documenten en multimedia uitingen. Dus niet alleen denken in de mogelijkheden voor nieuwe techniek op een organisch gegroeide discipline van rechtsvorming en rechtshandhaving, maar ook de herinterpretatie van het rechtsfilosofie zelf in termen van ontologie, taxonomie en semantiek.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren