Met het algoritmeregister hoopt de overheid burgers en experts meer transparantie en toegankelijkheid te bieden in de algoritmes die worden ingezet, en discriminatie en willekeur te voorkomen. Gaat dit brengen waarop wordt gehoopt? De échte vraag is: wie kan en moet verantwoordelijkheid nemen?
In december 2022 lanceerde staatssecretaris Van Huffelen het algoritmeregister. Hiermee hoopt de overheid burgers en experts meer transparantie en toegankelijkheid te bieden in de algoritmes. | Beeld: Shutterstock
Het register is op dit moment nog incompleet, slecht ontsloten en te algemeen beschrijvend van aard om te controleren of een algoritme leidt tot het benadelen van bepaalde groepen. Dit is niet zo eenvoudig te verhelpen, want op het moment dat je de set van regels die het algoritme gebruikt openbaar maakt, kan dit fraude in de hand werken. Dit geldt met name voor algoritmes die juist bedoeld zijn om fraude of misdrijven op te sporen – bijvoorbeeld een algoritme dat ingezet wordt om illegale vakantieverhuur tegen te gaan. Als bekend is volgens welke regels het algoritme werkt, kunnen fraudeurs eenvoudig inschatten hoe zij onder de radar blijven.
Het register is op dit moment nog incompleet, slecht ontsloten en te algemeen beschrijvend van aard
Een ander probleem dat speelt, is dat AI algoritmes inmiddels krachtig genoeg zijn om deze in te zetten op ándere AI algoritme om de onderliggende data te reconstrueren. Op deze manier kan persoonlijke data gereconstrueerd worden en voor het oprapen komen te liggen voor kwaadwillenden.
De echte vraag: controle en verantwoordelijkheid
Een algoritmeregister draagt bij aan een verhoogde bewustwording – organisaties zullen voorzichtiger handelen en eerder geneigd zijn om interne regels aan te scherpen, en burgers kunnen makkelijker vragen stellen over een proces als geheel. Het leidt dus wel tot meer transparantie, maar écht controleren blijft lastig.
Ten eerste omdat verschillen in theorie en praktijk zullen ontstaan, doordat organisaties zelf verantwoordelijk zijn voor de registratie van algoritmes die zij inzetten. Hierbij kan een kloof ontstaan tussen wat er wordt geregistreerd en de werkelijke situatie – bijvoorbeeld omdat procedures rondom het gebruik van algoritmes in de praktijk niet goed gevolgd worden.
Ten tweede kan een algoritme eigenlijk alleen echt goed getest en gecontroleerd worden in een gedegen en onafhankelijk onderzoek. Er kan een discriminerend model ontstaan als data scientists (onbedoeld) vooroordelen laten meewegen in de ontwikkeling van een algoritme of als deze niet goed wordt toegepast. Om dit bloot te kunnen leggen, is toegang tot het algoritme nodig om deze te testen voor verschillende groepen (bijvoorbeeld ‘vrouwen’, of ‘mensen met een dubbele nationaliteit’), om te zien of er een nadeel voor deze groep ontstaat bij gebruikmaking van het algoritme.
Voor de burger zou het van toegevoegde waarde zijn om een op maat gesneden toelichting te ontvangen bij een bepaalde beoordeling.
Het is niet redelijk om van burgers te verwachten dat zij de overheid op deze wijze controleren. Wat mogelijk wél gaat helpen zijn de additionele taken van de Autoriteit Persoonsgegevens (AP) per januari 2023 rondom toezicht op de ontwikkeling en gebruik van algoritmes. Dit draagt er hopelijk aan bij dat mensen er op kunnen vertrouwen dat algoritmes aan publieke waarden voldoen. Hoe diepgaand en effectief dit toezicht zal zijn is op dit moment nog onduidelijk. Daarnaast zouden ook certificeringen een bijdrage kunnen leveren; het specifieke algoritme kan dan wel doorgelicht en gecontroleerd worden, door een onafhankelijke instantie.
Voor de burger zou het van toegevoegde waarde zijn om een op maat gesneden toelichting te ontvangen bij een bepaalde beoordeling: hoe is deze beslissing tot stand gekomen, en wat is de rol van algoritmes hierin? Dat is een heel andere insteek dan ‘dit zijn de algoritmes, ga maar zoeken’.
Het algoritmeregister is een mooi initiatief en het leidt tot een verhoogde bewustwording – en juist daarom is dit hét moment om de vraag te stellen wie nu eigenlijk baat heeft bij het register en of er geen andere oplossingen mogelijk én nodig zijn om discriminatie bij de inzet van algoritmes te voorkomen.
Véronique Van Vlasselaer en Rein Mertens zijn respectievelijk Data & decision scientist en Data privacy expert bij SAS.