Afgelopen week werd in Brussel gesproken over het reguleren van kunstmatige intelligentie. Steeds vaker is regulering het antwoord op de vragen die data en digitalisering met zich meebrengen. De vraag is niet eens zozeer of regulering wel het beste antwoord is, maar of de vraag wel voldoende helder is.
Afgelopen week werd in Brussel gesproken over het reguleren van kunstmatige intelligentie. Steeds vaker is regulering het antwoord op de vragen die data en digitalisering met zich meebrengen. De vraag is niet eens zozeer of regulering wel het beste antwoord is, maar of de vraag wel voldoende helder is.
De discussie rond het gebruik van data speelt al enige jaren. Wie bijvoorbeeld in Kamerstukken zoekt op het woord algoritme ziet een enorme stijging vanaf 2015. In de meeste gevallen betreft het stukken over de risico’s van data of vragen over de rechtmatigheid van algoritmes. Deze begrippen worden echter zelden geduid, terwijl dit cruciaal is voor de maatregelen die worden voorgesteld.
Het gebrek aan een eenduidige definitie of classificering van begrippen als algoritme leidt tot interpretatieverschillen. De invulling van wat een algoritme is varieert daardoor van eenvoudige rekenregels tot complexe en zelflerende systemen, waarbij iedereen gelijk heeft. Tegelijkertijd leidt de roep om regulering tot maatregelen als een algoritmewaakhond, zoals ook weer te lezen is in het ‘document op hoofdlijnen’ van de VVD en D66 van afgelopen zomer, als input voor een nieuw regeerakkoord.
Inmiddels is in Rotterdam recent al een motie aangenomen waardoor de gemeente strikter moet gaan toezien op de algoritmes. Ook zijn er verschillende overheden bezig met een algoritmeregister, in navolging van de gemeente Amsterdam. Een mooi initiatief om transparantie te bevorderen. Er staan echter slechts zes algoritmes beschreven. De vraag is hoeveel algoritmes er daadwerkelijk worden gebruikt, hoe ze worden gebruikt, wat de impact is en welke waarborgen er zijn. Dit alles begint met de simpele vraag wat eigenlijk een algoritme is en hoe deze te classificeren. Zolang er geen overeenstemming is over deze vraag wordt het voor een waakhond heel moeilijk toezicht houden en wordt het voor Rotterdam lastig om uitvoering te geven aan de motie.
De risicoclassificatie die de Europese Commissie voorstelt voor AI-toepassingen biedt al enige houvast hoewel ook daar voldoende ruimte zit voor interpretatie. Het risico blijft ook in Europa dat zonder voldoende besef en begrip de discussie over AI al snel blijft hangen in een morele bias waarin alle technologie bedreigend is voor de maatschappij en de mensenrechten, met regulering als enige uitkomst.
Het instellen van een algoritmewaakhond of het inperken van AI-toepassingen kunnen allemaal nodig en gerechtvaardigd zijn, maar het is op dit moment wel heel makkelijk om iets het etiket algoritme te geven. Het leidt tot spraakverwarring en belangrijker nog, het zorgt ervoor dat risico’s én kansen onder dezelfde noemer worden ingeperkt.
Christian Verhagen is senior adviseur bij Verdonck, Klooster & Associates en publiceert regelmatig over data en technologie in de publieke sector.