Het vertrouwen van burgers in kunstmatige intelligentie is broos. Discussies over deepfakes, discriminatie door algoritmen en foutieve antwoorden van chatbots voeden het gevoel dat AI moeilijk te controleren is. Tegelijk groeit de inzet van AI razendsnel in organisaties: bedrijven gebruiken het voor klantenservice, analyse, marketing en besluitvorming. In die context zoeken organisaties naar manieren om te laten zien dat hun AI-systemen betrouwbaar en verantwoord zijn.
Het AI-keurmerk is een schijnzekerheid
Verantwoord AI-gebruik is niet iets wat je simpel kunt afvinken met een certificaat. Het is een voortdurend proces van leren, controleren en kritisch blijven nadenken, juist ook wanneer een systeem officieel als ‘verantwoord’ is bestempeld. Laten we ervoor zorgen dat het keurmerk geen vervanging wordt van kritisch denken.
Een van de nieuwste antwoorden op die behoefte is een heus keurmerk voor kunstmatige intelligentie. Op basis van de internationale ISO-standaard 42001 kunnen organisaties zich laten certificeren voor hun manier van omgaan met AI. Het gaat daarbij niet zozeer om één specifiek algoritme, maar om het managementsysteem eromheen: hoe organisaties risico’s identificeren, menselijke controle organiseren, privacy beschermen en transparant zijn over het gebruik van AI. Ook in Nederland hebben inmiddels bedrijven zoals CM.com en KPMG zo’n certificaat ontvangen. Eigenlijk is het een verkapte poging om alvast te voldoen aan de Europese AI act, waarin zo’n managementsysteem voor bepaalde hoog-risico-AI-toepassingen vereist is.
Ethische vraagstukken
De vraag is echter of zo’n procedurele en formele benadering gaat helpen in het verantwoord AI-gebruik. Op de eerste zien we een ongekende versnelling in AI innovatie die gepaard gaat met steeds weer nieuwe ethische vraagstukken. Dit valt vrijwel nergens mee te vergelijken. Hierdoor is het meetpunt van een keurmerk vaak gebaseerd op verouderde toepassingen van AI binnen de organisatie en geeft dit geenszins een garantie voor toekomstig verantwoord gebruik.
De impact van AI gaat verder dan de vraag of je een gezonde keuze in de supermarkt maakt op basis van een label
Op de tweede plek zien we de ontwikkeling dat bedrijven bewust AI risico’s te laag inschatten binnen bestaande zelfmanagementsystemen, en doelbewust verantwoordelijkheid ontlopen. Daarbij wordt ook geregeld weggekeken bij onduidelijkheid over de werking van AI toepassingen die ze zelf maken of inzetten. Denk daarbij aan een ongecontroleerde en haast onbegrensde mogelijkheid tot het maken van deepfakes, de psychologische effecten van slecht geprogrammeerde chatbots, of AI gedreven criminaliteit. In een alarmerend rapport van de Autoriteit Persoonsgegevens van 5 maart werd deze praktijk breed uitgelicht.
Papieren werkelijkheid
Een keurmerk kan dan snel tot een mooi gepresenteerde papieren werkelijkheid leiden en een schijnzekerheid opleveren. Dit zien we helaas maar al te vaak bij soortgelijke keurmerken in andere sectoren. In veel takken van maatschappelijk verantwoord ondernemen zien we een wildgroei aan keurmerken ontstaan, vaak ingegeven door het bedrijfsleven zelf, met als doel om in een zelf gecreëerde taal verantwoording af te leggen en daarmee het liefst bindende wetgeving rondom die verantwoordelijkheid te omzeilen. Deze wildgroei heeft vaak geleid tot een daling in consumentenvertrouwen op de langere termijn. Het is niet voor niets dat de Autoriteit Consument & Markt verschillende malen de noodklok heeft geluid ten aanzien van deze praktijk.
Laten we van bovenstaande praktijk leren en niet dezelfde fout met AI maken. Want dat kunnen we ons echt niet veroorloven. De impact van AI op ons dagelijks leven is enorm en heeft verregaande gevolgen voor onze grondrechten, leefomgeving en (sociale) verhoudingen. Het gaat daarmee duidelijk verder dan bijvoorbeeld de vraag of je een gezonde keuze in de supermarkt maakt op basis van een label.
Aandacht
Verantwoordelijkheid nemen in AI gebruik is een continue activiteit die vooral plaatsvindt in de dagelijkse praktijk op de werkvloer. Dat vraagt om AI-geletterdheid, kritisch denken en duidelijke verantwoordelijkheden binnen organisaties. Het vraagt ook om voortdurende reflectie op vragen als: wanneer gebruiken we AI wel, wanneer niet, wie controleert de uitkomsten en hoe leggen we daar verantwoording over af. Daar zou de continue aandacht van een bestuur moeten zitten, en dat zou met man en macht gestimuleerd moeten worden in een sfeer van vertrouwen, veiligheid en transparantie. Dat vraagt dus vooral om aandacht voor de bedrijfscultuur. Een focus op meetbare papieren doelen en de vastlegging van processen kan hierbij aardig in de weg staan.


Plaats een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.