Data en ai
Artikel

Veel politieke aandacht voor algoritmes deze weken

Veel aandacht gaat uit naar de risico's van de inzet van algoritmes door de overheid. | Beeld: Shutterstock / AI-gegenereerd

In de politiek staat deze weken de regulering van algoritmes volop in de aandacht. Morgen, 17 april vindt een debat plaats in de vaste commissie voor Digitale Zaken over de regulering van algoritmes. 11 april j.l. stuurde staatssecretaris van Huffelen haar antwoorden op vragen van de Eerste Kamer naar aanleiding van de rapportage ‘Algoritmerisico’s Nederland’ van de Autoriteit Persoonsgegevens.

Het wordt inhoudelijk een interessant debat a.s. woensdag van 10.00 – 14.00 uur in de commissie Digitale Zaken over de inzet van het kabinet op algoritmes en data-ethiek. Op de agenda staan diverse brieven, nota’s en adviezen die het afgelopen jaar zijn gepubliceerd.

Toezicht op AI

Allereerst praat de commissie over toezicht op AI. In het afgelopen jaar zijn de toezichthouders nauw gaan samenwerken. Hierover schreef schreef de staatssecretaris in mei vorig jaar al een brief aan de Tweede Kamer (mei 2023). Specifieke aandacht gaat tijdens het debat naar de rol van de Directie Coördinatie Algoritmes (DCA) binnen de Autoriteit Persoonsgegeven (AP). Hierover stuurde Van Huffelen eind 2023 een brief aan de Tweede Kamer. De directie krijgt de taak om proactief risico’s van de inzet van AI te signaleren en analyseren en de samenwerkingen met andere colleges,
markttoezichthouders en rijksinspecties te optimaliseren.  Ook moet de DCA overzicht bieden van wettelijke en andere kaders op het vlak algoritmes en AI.
Inmiddels heeft het Samenwerkingsplatform Digitale Toezichthouders (SDT) een Algoritme & AI-Kamer (AAK) ingesteld voor het afstemmen van toezicht op kunstmatige intelligentie. De Autoriteit Persoonsgegevens gaat hier, als regisseur van de AAK, flink op inzetten het komende jaar.

Implementatiekader voor de overheid

Hiernaast ruim aandacht voor het gebruik van AI bij de overheid. In haar verzamelbrief ‘Algoritmen reguleren’ van mei 2023 erkent Van Huffelen de mogelijkheden die AI biedt om taken beter uit te voeren, maar legt ze vooral nadruk op de risico’s ervan. ‘Publieke waarden en fundamentele rechten zoals privacy, non-discriminatie, autonomie en menselijke waardigheid kunnen onder druk komen te staan, waardoor burgers in de knel komen.’ Het implementatiekader (IKA) moet bijdragen aan een zorgvuldige en verantwoorde inzet van AI en/of algoritmen. Het is een hulpmiddel schrijft ze, geen lijst van verplichtingen waar een organisatie aan moet voldoen. ‘Gebruikers van dit IAK zullen dus nog altijd zelf moeten blijven nadenken en tot een eigen afweging komen. Het kader bevat ook de organisatie van het toezicht. Het maakt inzichtelijk hoe controle en toetsing van ontwerp en implementatiekeuzes plaatsvinden.’

Het implementatiekader (IKA) moet bijdragen aan een zorgvuldige en verantwoorde inzet van AI en/of algoritmen.

Algoritmeregister

In de bovengenoemde verzamelbrief gaat ze ook in op het belang van het algoritmeregister. Die bood de basis op rijksbrede afspraken te maken over de invoering van het register. Waar ze in haar brief nog terughoudend was over een wettelijke verplichting voor overheden om hieraan deel te nemen, mede omdat de Europese AI-verordening nog niet was vastgesteld, heeft de staatssecretaris inmiddels verdergaande stappen gezet. Sinds januari wordt gewerkt aan een traject  dat duidelijkheid moet verschaffen over het verplicht deelnemen aan het algoritmeregister.

Visie op generatieve AI

In januari publiceerde Nederland als een van de eerste EU-lidstaten een kabinetsvisie op generatieve AI. De onderwerp staat niet als apart onderdeel op de agenda van de commissie, maar het zal zeker meegenomen worden in de debat. De overheid wil immers gaan experimenteren om met behulp van AI om tot een meer proactieve dienstverlening te komen. De ontwikkeling van het eigen taalmodel GTP NL moet de afhankelijkheid van enkele Amerikaanse bedrijven verminderen. Als het aan de staatssecretaris ligt, bouwt een volgend kabinet op deze plannen voort. ‘Anders leveren we Nederland uit aan Big Tech en dat willen we niet. Niets is pijnlijker dan werkloos toezien.’

Risicovolle algoritmen

Uiteraard wordt de inzet van algoritmen bij de Belastingdienst kritisch onder de loep genomen. In maart wijdde de staatssecretaris een aparte brief aan de zgn. FTM-risicomodellen. FTM verwijst naar risicomodellen die door het journalistieke platform Follow the Money (FTM) werden onderzocht om fraude en fouten in belastingaangiften te detecteren, maar die mogelijk tot discriminatie en een schending van privacywetten leidden.
Het NSC eiste daarop binnen twee weken van alle departementen een lijst te ontvangen van algoritmen die mogelijkerwijs illegaal waren, maar dat blijkt niet haalbaar. Oer de toepassing van geautomatiseerde selectietechnieken is advies gevraagd aan de landsadvocaat en de AP. De staatssecretaris verwacht pas in juni hier meer over te kunnen zeggen. Tijdens het debat van 17 april zal ze de laatste stand van zaken toelichten.

Veel vragen over algoritmerisico’s in de Eerste Kamer

Leden van de Eerste Kamer stelden een groot aantal vragen naar aanleiding van de rapportage Algoritmerisico’s Nederland van de Autoriteit Persoonsgegevens. 11 april stuurde staatssecretaris Van Huffelen haar antwoorden naar de Kamer.

Van Huffelen deelt de opvatting van de PVV-fractie dat de waarschuwingen van prominente ontwikkelaars en AI-experts just uitgebreid in kaart moeten worden gebracht en meegenomen moeten worden bij het ontwikkelen van nieuw beleid. Het kabinet denkt erover een AI-adviesorgaan (of Rapid Response Team) in te richten met experts die hen kan adviseren over prangende kwesties rondom belangrijke ontwikkelingen op het gebied van (generatieve) AI.

Veel aandacht gaat uit naar het algoritmeregister. Is de noodzakelijke transparantie die de AP onderstreept hiermee voldoende gewaarborgd, vraagt de fractie Groen Links-Pvda zich af? Volgens de staatssecretaris is het register als maatregel op dit moment voldoende, maar veel hangt af van de mate waarin het gevuld wordt door overheidsorganisaties. Reden om toe te werken naar een verplichting tot deelname. Ook moet de kwaliteit van de informatie omhoog.

De BBB wilde weten burgers hoe de staatssecretaris in de toekomst bescherming gaat bieden tegen “misstanden en/of onrechtvaardigheid”, die veroorzaakt worden door de rigiditeit van algoritmen. Hiervoor is het volgens Van Huffelen noodzakelijk om inzichtelijk te maken of en in hoeverre algoritmes een rol spelen in individuele besluiten. En dat een burger zelf kan toetsen of een besluit op een correcte manier tot stand is gekomen. Ze gaat dit jaar bekijken of bij een aantal overheidsbesluiten een verwijzing naar het algoritmeregister kan worden opgenomen. Ook is het belangrijk om in het algoritmekader normen en afspraken op te nemen die om fundamentele rechten waarborgen. Ten derde hecht ze in dit kader veel waarde aan het versterken van toezicht.

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren