Data en ai
Praktijk

Aan de slag met het IAMA

Impact assessments, toetsingskaders en andere frameworks: ze schieten als paddenstoelen uit de grond in het landschap van de digitaliserende overheid. Een impact assessment dat verwijst naar alle andere bestaande richtlijnen en kaders kan helpen. Het IAMA (Impact Assessment Mensenrechten en Algoritmes) is zo'n document.

Foutief of onethisch algoritmegebruik heeft impact heeft op de levens van burgers. | Beeld: Shutterstock

Met een kleine 94 pagina’s schetst het Impact Assessment Mensenrechten en Algoritmes (IAMA) een zo compleet mogelijk beeld van alle mogelijke valkuilen – technologisch, procesmatig en ethisch – die een dataproject met algoritmegebruik kan hebben. Uiteraard is het invullen van het IAMA geen kleine klus, wat gebruikers kan afschrikken om het document daadwerkelijk te gebruiken. Echter, in maart 2022 is er een Tweede Kamer motie ingediend en aangenomen die het gebruik van het IAMA verplicht stelt. Het IAMA komt er dus onvermijdelijk aan. Hoe gaan we daarmee om?

Wat is het IAMA?

Allereerst is het belangrijk om te weten wat het IAMA precies inhoudt. Het IAMA is ontwikkeld in 2020-2021 en gepubliceerd in de zomer van 2021. In opdracht van het Ministerie van Binnenlandse Zaken heeft een interdisciplinair team van Universiteit Utrecht het IAMA ontwikkeld. Het team bestond uit hoogleraar fundamentele rechten Janneke Gerards, universitair hoofddocent Mirko Tobias Schäfer, data scientist Arthur Vankan en Iris Muis, teamleider van Utrecht Data School (onderzoeksplatform van Universiteit Utrecht).

IAMA is specifiek gefocust op de intersectie tussen mensenrechten en algoritmes.

Zoals de naam al doet vermoeden, is het IAMA een impact assessment specifiek gefocust op de intersectie tussen mensenrechten en algoritmes. De unieke focus op mensenrechten en algoritmes onderscheidt het IAMA van andere impact assessments in het veld en helpt (publieke) organisaties om op een verantwoorde manier algoritmes te ontwikkelen en in te zetten. Het maakt de voor- en nadelen omtrent algoritmes expliciet en maakt het mogelijk om een bewuste discussie te voeren over de wenselijkheid van de inzet van specifieke algoritmes. Daarnaast fungeert het IAMA – zoals eerder genoemd – als kapstok voor alle andere (tot dan toe beschikbare) richtlijnen, verwerkt in een gestroomlijnd document. Het IAMA is beschikbaar in het Nederlands en in het Engels; Fundamental Rights and Algorithms Impact Assessment (FRAIA).

Motie in de Tweede Kamer

Dit brengt ons tot de Tweede Kamermotie, ingediend door Kamerleden Bouchallikh (GroenLinks) en Dekker-Abdulaziz (D66). Specifiek vraagt deze motie een verplichtstelling van het IAMA, “voorafgaand aan het gebruik van algoritmen wanneer algoritmen worden ingezet om evaluaties van of beslissingen over mensen te maken”. Tevens wordt verzocht om de ingevulde assessments openbaar te maken. De aanleiding van deze motie is het toenemende besef dat foutief of onethisch algoritmegebruik daadwerkelijke impact heeft op de levens van burgers. Algoritmes zijn meer dan ogenschijnlijk neutrale regels aan code en dit besef begint steeds meer in te dalen. Ook bij de overheid komt dit besef, waar moties zoals deze een directe uiting van zijn. De motie om het IAMA verplicht te stellen is aangenomen, hoewel een specifieke invulling hiervan nog op zich laat wachten.

Hoe ziet die verplichting eruit?

De specifieke invulling van de verplichtstelling van het IAMA ontbreekt nog, maar naar verwachting wordt dit concreter wanneer de Europese AI Act meer vorm krijgt. In het huidige voorstel van de Europese AI Act wordt het (voor hoog-risico algoritmes) verplicht om een zogenoemde conformiteitsbeoordeling uit te voeren, om onwenselijke inzet van AI te voorkomen. Dit is vergelijkbaar met de functie van het IAMA, wat verklaart waarom specifieke invulling van de aangenomen motie in de wachtrij staat tot de AI Act zelf meer vorm heeft gekregen. Desalniettemin kunnen we alvast vooruitblikken op de aandachtspunten die verplichtstelling van het IAMA met zich meebrengt.

Nu al beginnen met het IAMA

Momenteel wordt het IAMA al door een aantal overheidsorganisaties gebruikt, waarmee zij kennis en ervaring opbouwen die hen goed voorbereiden op een verplichtstelling van het IAMA. Er zitten tevens ook veel voordelen aan het nu al implementeren van een instrument als het IAMA. Met het IAMA ontstaat een dialoog tussen professionals die werken aan de ontwikkeling of de inzet van een algoritmisch systeem. Resultaat is dat alle relevante aandachtspunten bij de inzet van algoritmes tijdig en gestructureerd aan bod komen. Zo voorkom je dat algoritmes gebruikt worden waarvan de consequenties nog niet duidelijk zijn. Ook verkleint het IAMA de risico’s op onzorgvuldigheid, ineffectiviteit of inbreuk op de rechten van inwoners.

Met het IAMA ontstaat een dialoog tussen professionals die werken aan de ontwikkeling of de inzet van een algoritmisch systeem.

Meerdere partijen zijn betrokken geweest bij de pilotfase van het IAMA en verscheidene overheidspartijen werken inmiddels met de uiteindelijke versie van dit instrument. Deze praktijkervaring levert waardevolle inzichten op. Het meest vanzelfsprekende punt over het IAMA is de lengte ervan en de tijd die erin gestopt dient te worden. Het tijd- en capaciteitsgebrek bij de overheid is bekend, waardoor de mogelijke verplichting van het uitvoeren van een IAMA ook enige stress veroorzaakt. Want waar halen de medewerkers die het IAMA moeten invullen de tijd vandaan om dit te doen, als ze ook nog bezig zijn met andere verantwoordingskaders, richtlijnen en instrumenten? Op dit gebied kan er procesmatig veel vooruitgang geboekt worden.

Tips voor de implementatie

1. Het document heeft de vorm van een interactieve PDF, waardoor gemakkelijk tussen de verschillende onderdelen heen en weer ‘gesprongen’ kan worden.
2. Een procesbegeleider is erg handig. Deze persoon houdt de tijd in de gaten en leidt de deelnemers door de vragen heen.
3. Hoewel het IAMA een erg groot document is, hoeft niet iedereen bij elk deel aanwezig te zijn. Bedenk van tevoren welke mensen bij welk onderdeel uitgenodigd moeten worden. De tabel op pagina 2 geeft handvatten hierbij.
4. Het is goed mogelijk dat antwoorden van reeds ingevulde kaders, zoals de DPIA, ook van toepassing zijn op de vragen uit het IAMA. Hierdoor kan dit als input worden gebruikt voor het IAMA.
5. Een andere tip uit de praktijk is om een quickscan in te zetten, om te beoordelen welk algoritme een uitgebreid assessment met het IAMA nodig heeft. Niet bij alle algoritmes is een assessment noodzakelijk. Alleen bij high-impact algoritmes die mogelijk een inbreuk maken op mensenrechten, heeft dit zin.

Ervaringen uit de praktijk: het UWV

Bij het UWV is in 2021 gestart met een visie op datagedreven werken, één van de randvoorwaarden voor datagedreven werken is data ethiek. Het UWV heeft een Kompas Data Ethiek vastgesteld met 12 ethische uitgangspunten. Er is een ethisch assessment ontwikkeld waarin deze 12 uitgangspunten verder geconcretiseerd worden. De motie van Kamerleden Bouchallikh (GroenLinks) en Dekker-Abdulaziz (D66) was aanleiding om het eigen ethisch impact assessment te integreren in het IAMA. Een eerste algoritme is nu aan het IAMA getoetst. Op basis van de uitkomsten kan dit nog voorgelegd worden aan de Commissie Data Ethiek binnen het UWV. Het IAMA lijkt een tijdrovend instrument, het volgt echter de ontwikkeling vanaf het nadenken over het al dan niet inzetten van een algoritme voor een bepaald probleem tot aan het feitelijk in gebruik nemen. Elk onderdeel wordt volgtijdelijk gedurende deze ontwikkeling, ingevuld met verschillende deelnemers. Daar zit ook de toegevoegde waarde van het instrument: een algoritme en de ontwikkeling ervan beschouwen vanuit ethisch perspectief is een continuüm en geen momentum.



Cartoon IAMA door Maaike Hartjes, Comic House. Gemaakt tijdens de JenV Dataconferentie op 18 oktober 2022.

Hoe nu verder?

Algoritmes en kunstmatige intelligentie worden steeds vaker toegepast, ook door overheidsorganisaties. Dit brengt veel voordelen met zich mee en kan het werk efficiënter en kwalitatief beter maken. Bij deze ontwikkeling moet wel altijd de mogelijke impact op mensenrechten goed worden ingeschat en zoveel mogelijk worden beperkt. Daar is het IAMA voor. Hoewel het IAMA op dit moment nog niet verplicht is, ziet het ernaar uit dat het in de toekomst wel verplicht wordt. Vandaar dat wij alle overheidsorganisaties aanraden om het IAMA eens te doorlopen. Verschillende organisaties, zoals het UWV, zijn hier al mee begonnen. Onze gezamenlijke oproep is om best practices te delen en praktijkervaringen uit te wisselen, zodat de Nederlandse overheid als koploper kan gelden wanneer het gaat om ethisch verantwoord gebruik van technologie. Vanuit Centrum Informatie beveiliging & Privacy is al een webinar georganiseerd met Elise Wendt van het Ministerie van BZK en Iris Muis van de Universiteit Utrecht. Zij vertellen over IAMA, de Impact Assessment Mensenrechten en Algoritmen. Wat is de achtergronden en context van het IAMA en wat zijn de ervaringen in de praktijk?


Julia Straatman is junior onderzoeker data ethiek, Utrecht Data School, Universiteit Utrecht, j.straatman@uu.nl
Iris Muis is teamleider, Utrecht Data School, Universiteit Utrecht, i.m.muis@uu.nl
Eveline Jacobson is senior projectmanager Data Ethiek en Algoritmeregister, UWV Human Resource Management

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren