Data en ai
Podium

Na AVG-kramp geen AI-overgevoeligheid

Natuurlijk moeten we ons hoofd gebruiken bij het inzetten van AI, voorzichtig opereren, maar ook geen spoken gaan zien. | Beeld: Shutterstock

De gebrekkige kennis over AI werkt in de hand dat alarmbellen gaan rinkelen bij elke veelbelovende AI toepassing die kan bijdragen aan de broodnodige productiviteit bij de overheid. Zij worden met argwaan bekeken. Dat leidt tot stagnatie en gemiste kansen in de publieke sector. Natuurlijk moeten we ons hoofd gebruiken bij het inzetten van AI, voorzichtig opereren, maar ook geen spoken gaan zien, vindt Jan Jongenelen. Laten we voorkomen dat we allergisch reageren op alles dat riekt naar AI, zodat we na de AVG-kramp niet vervallen tot een AI-overgevoeligheid.

De AI-act komt er aan. Althans hij is er al, maar een eerste verbod gaat binnenkort in. Vanaf 1 februari moet de overheid gestopt zijn met alle hoog risico AI. Ik ben benieuwd welke geavanceerde hoog-risico AI–toepassingen dan ontmanteld moeten worden. Mijn inschatting is: geen één.

Als we kijken naar de definitie van een AI agent in de verordening, dan valt het criterium “autonomie” op. De AI moet met een zekere mate van autonomie opereren en de mogelijkheid hebben om na lancering zijn gedrag aan de hand van omstandigheden aan te passen. De AI-agent gaat eigenlijk een beetje zijn eigen gang en ontglipt de controle van de mens. Geen enkele overheid heeft al zulke geavanceerde AI toepassingen operationeel. De AI act legt de lat heel hoog een hoogte die onze toepassingen voorlopig nog lang niet bereiken.

Algoritmen

Toch is iedereen koortsachtig bezig met het inventariseren van alle riskante AI. Of gaat het om algoritmen? Helaas worden de termen algoritme en AI door elkaar gebruikt alsof het synoniemen zijn. Iedereen weet wel dat niet elk algoritme AI is. Het zoeken van een woord met Ctrl-F in een tekst vindt ook plaats met een algoritme. Algoritmes zijn overal! Moeten echt alle algoritmes gemeld worden en de maat genomen? De olievlek breidt zich uit.

AI is niet het probleem. Het gaat er om waarvoor je AI inzet.

Het trauma van de toeslagenaffaire speelt hier ook een rol. Op een of andere manier wordt de toeslagenaffaire met terugwerkende kracht verbonden aan AI. Alsof de discriminatie van burgers het gevolg was van een AI-agent, die zelfstandig mensen met buitenlandse namen op een fraudelijst zette. Het was echter slechts een eenvoudig fraudesignaleringsmodel door mensen gemaakt om verdachte aanvragen te signaleren. We kunnen dat niet wijten aan een losgeslagen kunstmatige intelligentie. Je zou het wel een algoritme kunnen noemen, maar door mensen in een organisatie tot stand gebracht, het institutioneel racisme stak zijn kop op.

Is AI riskant?

Onlangs konden we in de krant lezen dat de archieven van de Staten Generaal digitaal toegankelijk zijn gemaakt. Daarbij is AI gebruikt en machine learning, om de oude handschriften te kunnen ontcijferen. Is dat niet riskant, zou er misschien bias gekropen zijn in die transformatie? Worden de archieven nu misschien verkeerd omgezet waarbij de koloniale wandaden van de blanke overheersers en-passant door AI verdoezeld zijn? Nee natuurlijk niet. Daar wordt AI zonder problemen ingezet.

AI is niet het probleem. Hoog risico AI bestaat niet (Science Fiction voorbeelden daargelaten). Het gaat er om waarvoor je AI inzet. En het is gevaarlijk daar waar er beslissingen genomen worden die mensen raken. De AI act is daar ook duidelijk over. In bijlage III lees je een opsomming van riskante AI. Het mooie is dat deze lijst is geformuleerd als “AI systemen die bedoeld zijn voor…”. Ook de wetgever legt de focus op de bedoeling waarvoor de AI wordt ingezet. Gezichtsherkenning op zich is niet gevaarlijk, dat kan zeer nuttige toepassingen hebben, maar het scannen van de openbare ruimte en elk mens dat langs de camera komt identificeren dát is wel gevaarlijk en een inbreuk op onze privacy.

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren