Data en ai
Artikel

Algoritmeregister: Registreren is één, uitleggen is twee

Het algoritmeregister wordt verplicht voor de overheid. | Beeld: Shutterstock/iBestuur

Burgers hebben er recht op te weten hoe besluiten van de overheid met algoritmes tot stand komen. Eenvoudige oplossing: transparantie! Logisch gevolg: algoritmeregisters! Is daarmee het varkentje gewassen?

Een algoritme is een geprogrammeerde set regels of stappen die vanuit een beginsituatie leiden naar een beoogd doel. Deze automatische besluitvorming kan verbeteren met zelflerende computers. Dit roept allerhande ethische kwesties op, zo staat in de algoritmerichtlijn voor overheden van het ministerie van Justitie en Veiligheid.

Transparant zijn over het gebruik van algoritmes

De meest gebruikte algoritmes zijn die van de Google zoekmachine die automatisch de uitkomsten van zoekopdrachten rangschikken. Moet Google nu op grond van de AI Act straks transparantie bieden? De transparantie-eis geldt louter ‘wanneer een AI-systeem waarschijnlijk een hoog risico oplevert voor grondrechten en veiligheid’. Kan een zoekresultaat een grondrecht of de veiligheid in de waagschaal stellen? En kan gebruik van ChatGPT een hoog risico opleveren voor grondrechten? Moeten overheden Google (met Bard) en GPTx aanmelden in het algoritmeregister? Ambtenaren gebruiken deze programma’s immers of gaan dat op zeker moment doen. Zo spelen er talloze vragen.

Precies in december 2022 toen de wereld overweldigd werd door ChatGPT, lanceerde de Rijksoverheid haar algoritmeregister. De enorme stroomversnelling in de toepassingen van AI, en het debat, de vrees en regelzucht die dat teweegbrengt, laten het algoritmeregister niet onberoerd. Staatssecretaris Alexandra van Huffelen (Digitalisering) onderstreept dat “wij als overheid transparant zijn over het gebruik van algoritmes, om de controleerbaarheid te vergroten en uit te leggen waarom en hoe algoritmes gebruikt worden”. Maar wat betekent dat?

Het registreren heeft dus een lange doorlooptijd en heeft nog niet bij elke organisatie urgentie.
Alexandra van Huffelen Digitalisering, staatssecretaris voor digitalisering

In elk geval blijkt dat de praktijk van zo’n register weerbarstiger is dan op het eerste gezicht leek. Het landelijk register telt eind mei 2023 118 algoritmes, slechts acht meer dan bij de lancering in december 2022. Reden genoeg om een einde aan de aanvankelijke vrijwilligheid te maken: publicatie wordt na aandrang van de Tweede Kamer verplicht. Van Huffelen laat weten dat ze inziet dat de registratie veel voeten in de aarde heeft: “Voorafgaand aan het registreren moeten de relevante algoritmes geïnventariseerd, en de verantwoordelijkheden goed geregeld worden. Het registreren heeft dus een lange doorlooptijd en heeft nog niet bij elke organisatie urgentie. Capaciteitstekort speelt daarbij een rol.”

Work in progress

Haar departement stimuleert registratie. “We hanteren een iteratieve aanpak. Dit betekent dat we zowel werken aan het aantal registraties in het register, als aan de verhoging van de kwaliteit van bestaande registraties. Een aantal registraties is al herzien om de kwaliteit en toegankelijkheid te verbeteren. Betere aanleverfunctionaliteit en checks helpen daarbij.”

Het register is volgens Van Huffelen dus ‘work in progress’. Decentrale registers sluiten aan, zoals de registers van het Kadaster en de gemeenten Rotterdam en Eindhoven.

Kritische toetsing

Gemeente Amsterdam pionierde in 2020 samen met Helsinki in het witboek Public AI-Registers: “Elke burger moet toegang hebben tot begrijpelijke en actuele informatie over de invloed van algoritmen op zijn leven en over de gronden waarop algoritmische beslissingen worden genomen.” Praktisch gezien betekent dit dat overheden “zinvolle transparantie” bieden over “doel en impact, verantwoording, datasets, gegevensverwerking, non-discriminatie, menselijk toezicht, risico’s en hun risicobeperkende maatregelen, en uitlegbaarheid.” Het Algoritmeregister Amsterdam telt nu tien applicaties, onder meer voor bijstandsaanvragen, illegaal wonen, parkeercontrole, drukte op straat, armoedebestrijding en top 400/600 boeven. Die laatste is veruit het gevoeligst: een algoritme van Prokid, ingezet vanaf 2016, leidde onmiskenbaar tot discriminatie. Dat werd pas bekend na uitgebreid onderzoek waarna het algoritme werd opgedoekt. Had een register stigmatisering en discriminatie kunnen voorkomen? Het had er in elk geval aan kunnen bijdragen.

Neem dit voorbeeld uit Rotterdam. Renske Leijten (SP) kapittelde de gemeente tijdens een recent Kamerdebat vanwege een algoritme voor fraudeopsporing: “Ben je alleenstaand? Ben je een vrouw? Zit je in de bijstand? En heb je ook nog een andere nationaliteit? Nou, dan scoor je hoog op de fraudekaart! De overheid doet dit nog op heel veel andere plekken; we weten dat algoritmes mensen discrimineren en uitsluiten.”

Ambtelijk secretaris van Bernie Goedhart van de Rotterdamse externe adviescommissie Algorithm Advisory Board (AAB) laat weten: “De toepassing ‘Heronderzoeken uitkeringsgerechtigden’ is inmiddels buiten werking gesteld in het Algoritmeregister Rotterdam. Dat is het gevolg van toepassing van streng algoritmebeheer, met een verplichte Impact Assessment Mensenrechten en Algoritmen (IAMA) voor hoog risico. Louter transparantie met registratie volstaat niet, je moet dat vergezeld laten gaan met kritische toetsing. De lokale Rekenkamer helpt Rotterdam met het rapport ‘Gekleurde Technologie’ op het paard. Intensieve kennisuitwisseling binnen de VNG en met BZK via Algoritmeregister.org doet de rest.”

Discriminerende profilering

Het toezicht wordt versterkt door de nieuwe directie Coördinatie Algoritmes van Autoriteit Persoonsgegevens. In haar Kamerbrief van eind 2022 stelt staatssecretaris Alexandra van Huffelen transparantie centraal. Registraties moeten “eenduidig en bruikbaar” zijn. Dat is mooi, maar een gewraakt algoritme van Buitenlandse Zaken stond niet eens in het register.

De AP kapittelde minister Wopke Hoekstra (Buitenlandse Zaken) vanwege vermeend discriminerend gebruik van algoritmes voor de beoordeling van visumaanvragen, na een eerdere boete van 565.000 euro vanwege gebrekkige systeembeveiliging. BuZa past discriminerende profilering toe bij visumaanvragen. Sylvana Simons (Bij1) stelde pittige Kamervragen over discriminatie van onder meer de categorie ‘jonge Surinaamse mannen’. Ook Hind Dekker-Abdulaziz (D66) stelde Kamervragen over het visumbeleid.

Echter, hoe verwerpelijk wellicht ook, dit is geen gevalletje ‘computer says no’, maar gaat om door mensen bedachte beslisregels, zo bevestigt Niels Westerlaken die als Functionaris Gegevensbescherming bij BuZa waarschuwde.

Overigens was hij het niet die de kat de bel aanbond; het was de Europese Commissie die de AP inschakelde. “Dit systeem draait al zeven jaar, waardoor BuZa operationeel afhankelijk is van het profileren. Ik hoopte het zelfreinigend vermogen van de organisatie te verbeteren, maar de afwachtende houding van de ambtelijke top bemoeilijkte dat. Onder externe druk wordt transparantie afgedwongen, een goede zaak.” Over het algoritmeregister zegt Westerlaken: “Voor gevoelige algoritmes met persoonsgegevens kent de AVG al een verplichting tot transparantie; betrokkenen moeten informatie krijgen over de logica van het profileren. Als je dat goed doet biedt een register weinig winst.” Hiermee illustreert Westerlaken bij uitstek de problemen die samenhangen met het algoritmeregister: de registratie zelf is niet de crux, maar het hele proces naar registratie, inclusief controle of het toegepaste systeem ‘nette’ uitkomsten tot gevolg heeft en risico’s op vooroordelen en discriminatie uitsluit of ten minste minimaliseert.

Ethisch kompas

De Eerste Kamer debatteerde in maart 2023 intensief over de gevolgen van algoritmegebruik voor rechtsstaat en democratie, geholpen door het rapport Algoritmes Overwegen van Rathenau waarin zeven aanbevelingen staan. De theoretische basis is gelegd, nu de praktijk nog. Zo zegt Van Huffelen dat nu pas een uitgebreid doelgroepenonderzoek loopt, “zodat we steeds meer te weten komen over wat er verwacht wordt van het register en stapsgewijs ontwikkelt het register hierin mee.”

Ook Eveline Jacobson, projectmanager data-ethiek en algoritmeregister bij UWV, ervaart zo’n voortschrijdend inzicht: “Het begon als een publiek consortium met een aantal gemeenten waaronder Amsterdam die startte met publicatie van algoritmes. Vervolgens was er de motie-Dassen waarin een verplicht algoritmeregister werd voorgesteld. BZK ontwikkelt nu een publicatiestandaard. De doelgroepen zijn burgers en experts.”

“Wie die experts zijn en welke informatie zij precies willen is niet helemaal helder. Daarmee loop je een risico dat het register zo uitgebreid wordt dat het minder toegankelijk wordt voor de burger voor wie het in eerste instantie was bedoeld. Je kunt je beter eerst richten op toegankelijkheid voor een breed publiek en vervolgens, op grond van de respons, bepalen hoe je uitbreidt. Als je het direct helemaal wilt dicht timmeren streef je je doel voorbij. Bovendien kan naar aanleiding van publicatie altijd aanvullende informatie worden opgevraagd met een beroep op de Wet open overheid.”

De leidraad binnen UWV is het Kompas Data-Ethiek van UWV: “Daarbinnen is transparantie één van de belangrijke uitgangspunten, en het register één van de middelen. Er zijn ook andere manieren van informeren van betrokken individuen waar je kunt uitleggen welke rol het algoritme speelt.”

Precies hierover is een motie van Evert Jan Slootweg (CDA) door de Tweede Kamer met algemene stemmen aangenomen: “Binnen twee jaar moeten alle overheidsorganisaties kenbaar maken aan onze inwoners van welke persoonsgegevens en welke algoritmes ze gebruik hebben gemaakt bij het nemen van het besluit.” Dit zorgt voor veel meer werk voor ambtenaren dan slechts registratie van hun systeem in het algoritmeregister. Ze moeten niet enkel de input in het algemeen benoemen, maar per besluit kunnen specificeren.

Registreren is één, uitleggen is twee. Maar hoe leg je uit wat de machine heeft geleerd en welke gevolgen dit heeft? Het is en blijft aan de overheidsorganisaties zelf, met externe controle van experts en journalisten, om onjuist gebruik te voorkomen.

 

Dit artikel is ook gepubliceerd in iBestuur Magazine #47 van juli 2023

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren