Overslaan en naar de inhoud gaan
(advertentie)

Het AI-keurmerk is een schijnzekerheid

Zwarte achtergrond met in geel uitgevoerd certificaat: AI-gecertificeerd
Een keurmerk kan snel tot een mooi gepresenteerde papieren werkelijkheid leiden. | Beeld: AI-gegenereerd

Verantwoord AI-gebruik is niet iets wat je simpel kunt afvinken met een certificaat. Het is een voortdurend proces van leren, controleren en kritisch blijven nadenken, juist ook wanneer een systeem officieel als ‘verantwoord’ is bestempeld. Laten we ervoor zorgen dat het keurmerk geen vervanging wordt van kritisch denken.

Het vertrouwen van burgers in kunstmatige intelligentie is broos. Discussies over deepfakes, discriminatie door algoritmen en foutieve antwoorden van chatbots voeden het gevoel dat AI moeilijk te controleren is. Tegelijk groeit de inzet van AI razendsnel in organisaties: bedrijven gebruiken het voor klantenservice, analyse, marketing en besluitvorming. In die context zoeken organisaties naar manieren om te laten zien dat hun AI-systemen betrouwbaar en verantwoord zijn.

Een van de nieuwste antwoorden op die behoefte is een heus keurmerk voor kunstmatige intelligentie. Op basis van de internationale ISO-standaard 42001 kunnen organisaties zich laten certificeren voor hun manier van omgaan met AI. Het gaat daarbij niet zozeer om één specifiek algoritme, maar om het managementsysteem eromheen: hoe organisaties risico’s identificeren, menselijke controle organiseren, privacy beschermen en transparant zijn over het gebruik van AI. Ook in Nederland hebben inmiddels bedrijven zoals CM.com en KPMG zo’n certificaat ontvangen. Eigenlijk is het een verkapte poging om alvast te voldoen aan de Europese AI act, waarin zo’n managementsysteem voor bepaalde hoog-risico-AI-toepassingen vereist is.

Ethische vraagstukken

De vraag is echter of zo’n procedurele en formele benadering gaat helpen in het verantwoord AI-gebruik. Op de eerste zien we een ongekende versnelling in AI innovatie die gepaard gaat met steeds weer nieuwe ethische vraagstukken. Dit valt vrijwel nergens mee te vergelijken. Hierdoor is het meetpunt van een keurmerk vaak gebaseerd op verouderde toepassingen van AI binnen de organisatie en geeft dit geenszins een garantie voor toekomstig verantwoord gebruik.

De impact van AI gaat verder dan de vraag of je een gezonde keuze in de supermarkt maakt op basis van een label

Op de tweede plek zien we de ontwikkeling dat bedrijven bewust AI risico’s te laag inschatten binnen bestaande zelfmanagementsystemen, en doelbewust verantwoordelijkheid ontlopen. Daarbij wordt ook geregeld weggekeken bij onduidelijkheid over de werking van AI toepassingen die ze zelf maken of inzetten. Denk daarbij aan een ongecontroleerde en haast onbegrensde mogelijkheid tot het maken van deepfakes, de psychologische effecten van slecht geprogrammeerde chatbots, of AI gedreven criminaliteit. In een alarmerend rapport van de Autoriteit Persoonsgegevens van 5 maart werd deze praktijk breed uitgelicht.

Papieren werkelijkheid

Een keurmerk kan dan snel tot een mooi gepresenteerde papieren werkelijkheid leiden en een schijnzekerheid opleveren. Dit zien we helaas maar al te vaak bij soortgelijke keurmerken in andere sectoren. In veel takken van maatschappelijk verantwoord ondernemen zien we een wildgroei aan keurmerken ontstaan, vaak ingegeven door het bedrijfsleven zelf, met als doel om in een zelf gecreëerde taal verantwoording af te leggen en daarmee het liefst bindende wetgeving rondom die verantwoordelijkheid te omzeilen. Deze wildgroei heeft vaak geleid tot een daling in consumentenvertrouwen op de langere termijn. Het is niet voor niets dat de Autoriteit Consument & Markt verschillende malen de noodklok heeft geluid ten aanzien van deze praktijk.

Laten we van bovenstaande praktijk leren en niet dezelfde fout met AI maken. Want dat kunnen we ons echt niet veroorloven. De impact van AI op ons dagelijks leven is enorm en heeft verregaande gevolgen voor onze grondrechten, leefomgeving en (sociale) verhoudingen. Het gaat daarmee duidelijk verder dan bijvoorbeeld de vraag of je een gezonde keuze in de supermarkt maakt op basis van een label.

Aandacht

Verantwoordelijkheid nemen in AI gebruik is een continue activiteit die vooral plaatsvindt in de dagelijkse praktijk op de werkvloer. Dat vraagt om AI-geletterdheid, kritisch denken en duidelijke verantwoordelijkheden binnen organisaties. Het vraagt ook om voortdurende reflectie op vragen als: wanneer gebruiken we AI wel, wanneer niet, wie controleert de uitkomsten en hoe leggen we daar verantwoording over af. Daar zou de continue aandacht van een bestuur moeten zitten, en dat zou met man en macht gestimuleerd moeten worden in een sfeer van vertrouwen, veiligheid en transparantie. Dat vraagt dus vooral om aandacht voor de bedrijfscultuur. Een focus op meetbare papieren doelen en de vastlegging van processen kan hierbij aardig in de weg staan.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in