IAMA-gesprekken: nuttig, maar ook tijdrovend
Vijftien overheidsorganisaties hebben in het afgelopen jaar een pilot uitgevoerd met het Impact Assessment Mensenrechten en Algoritmes (IAMA), een instrument dat de uitwerking van een specifieke algoritmische toepassing op grondrechten in kaart brengt. Een nuttig instrument vonden deelnemers, de gesprekken vanuit verschillende perspectieven (juridisch, ethisch, technisch) leverden nieuwe inzichten op. Maar het traject is soms ook tijdrovend.
De noodzaak om het spanningsveld tussen grondrechten en algoritmes in kaart te brengen wordt breed gevoeld binnen de overheid. In maart 2022 werd in de Tweede Kamer een motie aangenomen die het gebruik van het IAMA verplicht stelt als algoritmes ingezet gaan worden om beslissingen over mensen te maken. Ook de Eerste Kamer verzocht het kabinet om mensenrechtentoetsen met betrekking tot AI-gebruik in te voeren.
Verplichte mensenrechtentoets
Mogelijk kan het IAMA in de toekomst een uitwerking zijn van verplichtingen die voortkomen uit de AI-verordening, die in maart 2024 is goedgekeurd. Deze Europese wetgeving verplicht tot de uitvoering van een risico assessment van de potentiële inbreuk op fundamentele rechten (Fundamental Rights Impact Assessment (FRIA)) wanneer een AI-systeem als hoog-risico is geclassificeerd. Het IAMA is volgens verschillende partijen één van de meest vergevorderde assessments met het oog op de FRIA vereiste. Het IAMA heeft dan ook de aandacht van andere landen uit de Europese Unie.
Dialoog stimuleren
Met IAMA wordt een dialoog gestimuleerd tussen professionals die werken aan de ontwikkeling of de inzet van een algoritmisch systeem. Na afloop van de pilot gaven deelnemers aan het IAMA-document zeer geschikt te vinden als faciliterende tool voor gespreksvoering. Het was ook interessant om te horen hoe andere rollen bepaalde beslissingen namen tijdens het ontwikkelproces van het algoritme.
Wel vonden deelnemers dat het IAMA-traject veel tijd in beslag nam. Niet alle vragen waren oom even relevant en soms ook niet eenduidig genoeg. Liefst zouden ze een kortere versie van het IAMA zien. Standaard wordt uitgegaan van 5 uur voor het doorlopen van de vragenlijst, maar hier werd regelmatig vanaf geweken. ‘De dikte van het IAMA-document en de tijdsspanne om het te doorlopen is dan ook een struikelpunt voor sommige organisaties gebleken’, concluderen de onderzoekers. Met een helder doel voor ogen, een goede procesbegeleider en de juist kennis aan tafel kan dit verbeterd worden.
Volwassenheidsniveau
Uit de evaluatie van de pilots blijkt echter ook dat nog niet alle overheidsorganisaties het volwassenheidsniveau omtrent algoritmes hebben bereikt om een IAMA-traject succesvol te kunnen volgen. ‘Zij beschikken mogelijk niet over genoeg medewerkers, de juiste expertise, of er is geen tot weinig draagvlak en/of bewustzijn voor dit soort trajecten. Tegelijkertijd wil een aantal organisaties het IAMA wel implementeren, maar wordt hierbij gesteld dat het IAMA-instrument in de huidige vorm (op een aantal punten) nog tekortschiet voor hun werkpraktijk.’
Aanbevelingen richting politiek
In de praktijk bleek verwarring te ontstaan over de termen ‘fundamentele rechten’, ‘mensenrechten’ en ‘grondrechten’. Politiek en overheid zouden ervoor moeten zorgen dat deze op een eenduidige manier gebruikt worden. En onderzoek of en hoe het IAMA in lijn kan worden gebracht met de FRIA, al dan niet in samenwerking met het recent opgerichte EU AI Office, beveelt het rapport aan. Ook zou onderzocht moeten worden hoe het IAMA een geïntegreerd onderdeel uit kan maken van het Algoritmekader.
In het evaluatierapport wordt ook aanbevelingen gedaan in verband met de uitvoering van het IAMA.
Klik HIER om het rapport in te zien.
Lees ook: