Overslaan en naar de inhoud gaan
(advertentie)

Pleidooi voor Nederlands AI-veiligheidsinstituut

afbeelding van een toetsenbord met de letters A en I naast elkaar en direct daarnaast stripfiguur Beavis met een motorzaag in zijn hand.
Stripfiguur Beavis met een motorzaag in zijn hand. | Beeld: AI-gegenereerd

AI die het dagelijks leven op disruptieve wijze kan binnendringen, AI die vitale sectoren kan ontregelen, AI die onze democratische processen ondermijnt en onze maatschappelijke weerbaarheid onder druk zet. We krijgen er steeds meer mee te maken. Daarom pleit ik voor een Nederlands AI-veiligheidsinstituut (naar Engels model en als netwerkorganisatie gevoed door bijvoorbeeld het AI Safety & Security Lab van de RDI) ter versterking van de maatschappelijke weerbaarheid.

Move fast and break things

Veel risico’s rond AI zijn inmiddels duidelijk zichtbaar in ons dagelijks leven. Minstens zo zorgelijk is dat AI-ontwikkelaars en -aanbieders vitale sectoren en publieke ruimte steeds vaker als living lab beschouwen. Met alle gevaren van dien. Neem het groot aantal Amerikaanse ziekenhuizen waarin een model was uitgerold om sepsis te voorspellen. Dat bleek het toch veel minder goed te doen dan ons werd voorgespiegeld. Het genereerde vele waarschuwingen die nauwelijks iets opleverden, terwijl een groot deel van de daadwerkelijke sepsispatiënten helemaal niet werd herkend. In het vervoer zien we hetzelfde move-fast-and-break-things-patroon: de terugroepactie rond Tesla’s Full-Self-Driving-software na zorgen van de Amerikaanse toezichthouder over het negeren of verkeerd interpreteren van verkeersregels in complexe situaties. Wat in de praktijk leidde tot risicovolle verkeersmomenten en een grootschalige software-terugroepactie. Ook de financiële sector werkt steeds meer met geavanceerde AI-modellen die risico-inschatting, beleggingsbeslissingen en handelsstrategieën aansturen. De Bank of England waarschuwt dat dit nieuwe vormen van systemische kwetsbaarheid kan veroorzaken.

Democratie onder druk

Tel bij dit alles op de dagelijkse disruptieve invloed van AI op onze democratische processen. Zo duiken al sinds geruime tijd synthetische beelden en deepfakes op met als doel uitkomsten van verkiezingen en zelfs oorlogen te beïnvloeden. Ook Nederland blijft niet gevrijwaard. Het laat zien hoe gemakkelijk overtuigend nepnieuws en desinformatie kunnen worden ingezet om onderling vertrouwen en maatschappelijke besluitvorming te ontregelen.
AI die het dagelijks leven binnendringt, AI die vitale sectoren ontregelt, AI die de democratie ondermijnt en die onze maatschappelijke weerbaarheid aantast... de vraag dringt zich op hoe we ons hier nog tegen kunnen wapenen? Een deel van het antwoord komt uit het Verenigd Koninkrijk.

Internationaal netwerk van 'AI Safety Institutes'

De afgelopen twee jaar is er op internationaal niveau een beweging ontstaan om AI-veiligheid institutioneel te organiseren. Het Verenigd Koninkrijk opende in 2023 het AI Safety Institute. Dat instituut test toonaangevende AI-systemen vóór publieke introductie, werkt nauw samen met ontwikkelaars, adviseert beleidsmakers in het VK en bondgenoten en stimuleert kennisontwikkeling met ruim £15 miljoen aan onderzoeksfinanciering. De Nederlandse context vraagt uiteraard niet om een één-op-één kopie van dit model, maar om een publieke veiligheids- en duidingsfunctie die aansluit bij ons bestaande toezicht en Europese kader. Daarover verderop meer.

Zoals gezegd, het is onderdeel van een internationale beweging. Tijdens de AI Seoul Summit in 2024 werd het 'International Network of AI Safety Institutes' opgericht. Met deelname van de EU, Frankrijk, het VK, de VS, Japan en Zuid-Korea. Het laat zien dat veel landen in een collectief dan wel op individuele titel deelnemen én kennis uitwisselen.
Tegelijkertijd komt uit achtergrondgesprekken het volgende beeld naar voren. AI-veiligheidsinstituten die geen bevoegdheden hebben om opvolging te geven aan hun analyses en bevindingen, sorteren maatschappelijk gezien beperkt effect. In landen waar instituten uitsluitend adviserend opereren, ligt politieke sturing op de loer en verdwijnt de praktische focus naar de achtergrond. In deze worden Zuid-Korea en Singapore genoemd als interessante uitzonderingen.

Hoeveel waarschuwingen hebben we eigenlijk nodig?

In dat licht las ik opnieuw een recente analyse van het AISI over societal resilience. Daarin wordt scherp uiteengezet hoe technologische, maatschappelijke en institutionele kwetsbaarheden steeds meer in elkaar grijpen. Het laat zien dat AI-veiligheid nooit één dimensie heeft, maar altijd een technische, maatschappelijke en bestuurlijke component kent die elkaar beïnvloeden. En toen dacht ik, waarom hebben wij nog geen instituut dat Nederland tegen dit alles helpt wapenen? Hoeveel waarschuwingen hebben we eigenlijk nodig?

Daarbij is het uiteraard belangrijk om het Europese kader niet uit het oog te verliezen. Met de AI-verordening worden aanbieders van hoogrisico-AI verplicht tot externe conformiteitsbeoordeling en krijgen markttoezichthouders de bevoegdheid om systemen van de markt te halen. Dat zijn belangrijke instrumenten voor naleving en handhaving. Wat de AI-verordening echter niet organiseert, is een structurele publieke functie die risico’s en actuele dreigingen over sectoren heen samenbrengt en duidt in het licht van maatschappelijke weerbaarheid en democratische stabiliteit. Ook de Europese AI Office en de aandacht voor general-purpose AI veranderen daar naar mijn smaak weinig aan. Zij richten zich primair op markttoezicht en naleving, niet op maatschappelijke weerbaarheid.

Is een Nederlands instituut al in de maak?

Het is niet zo dat de Nederlandse overheid zich hier niet druk over maakt. Zo schreef de Autoriteit Persoonsgegevens (AP) al in het voorjaar van 2024 in zijn Rapportage AI- & Algoritmerisico’s Nederland dat in andere landen AI-veiligheidsinstituten ontstaan en dat Nederland moet onderzoeken of een vergelijkbare functie hier wenselijk is.
Een belrondje langs verschillende Nederlandse instituten de afgelopen weken leerde mij echter dat de oproep van de AP van anderhalf jaar geleden nog geen daadwerkelijke opvolging heeft gehad. Dat kan natuurlijk liggen aan dat mijn adressenboek niet dik genoeg is en dat ik daardoor de juiste mensen niet gesproken heb, maar dat er achter de schermen wel degelijk vaart wordt gemaakt.

Als ik echter afga op openbare bronnen rond grote AI-initiatieven van dit moment, dan twijfel ik daar ten zeerste aan. Neem de oprichting van de AI-fabriek of de inrichting van het AI-competentiecentrum binnen de Nederlandse Digitaliseringsstrategie (NDS). In begeleidende stukken daaromtrent gaat het veel over innovatiekracht en economische kansen, maar weinig over de bedreigingen die nú spelen en nú moeten worden aangepakt.

Wat ontbreekt, is een structurele publieke functie waar verschillende dimensies van AI samenkomen en in samenhang worden gewogen

In dit rijtje van grote initiatieven past ook het recente Nationaal AI Deltaplan. Een lijst met puntige voorstellen, eveneens nadrukkelijk gericht op de versterking van de Nederlandse innovatiecapaciteit, infrastructuur en economische positie. Het plan stelt dat er een nationaal AI-impactinstituut moet komen dat op kwartaalbasis signalen over acute maatschappelijke effecten verzamelt, deze analyseert en daar op jaarbasis over rapporteert aan parlement en kabinet. Het plan zegt bovendien dat dit impactinstituut moet aansluiten bij een internationaal netwerk van publieke AI-instituten die kennis uitwisselen.

Daarmee blijft een wezenlijk punt onderbelicht. Het Nationaal AI Deltaplan organiseert vooral periodieke signalering en duiding van maatschappelijke effecten van AI. Wat ontbreekt, is een structurele publieke functie waar de technische, maatschappelijke en bestuurlijke veiligheidsdimensies van AI samenkomen en in samenhang worden gewogen. Zonder zo’n plek blijft het omgaan met AI-risico’s versnipperd over sectoren en initiatieven, juist daar waar samenhang en handelingsvermogen nodig zijn.
Terwijl de dreiging heus wel wordt gezien. Zo toont de motie van Barbara Kathmann en Jesse Six Dijkstra om een onafhankelijke AI-raad in te stellen dat ook de Kamer behoefte heeft aan structurele en tijdige signalering van risico’s bij AI-ontwikkeling en -gebruik.

Hoogste tijd voor actie

Gezien de combinatie van maatschappelijke kwetsbaarheden, digitale dreigingen van statelijke actoren, Big Tech dat getuige de voorliggende Digital Omnibus diep is doorgedrongen in de Europese besluitvorming en een internationale context die mede aangedreven door de Verenigde Staten ultrasnel en op shockerende wijze verschuift, lijkt het mij verstandig dat Nederland snel in actie komt.

Het is hoogste tijd voor een compacte nationale functie voor AI-veiligheid, naar voorbeeld van het Engelse AI Safety Institute. Een instituut dat, uiteraard binnen een helder democratisch mandaat en in samenhang met bestaand toezicht en bestuur:

  • onafhankelijk opereert als een structurele publieke veiligheids- en duidingsfunctie
  • sectoroverstijgende AI-risico’s en signalen monitort en analyseert, en op basis daarvan samenhangende dreigingsbeelden ontwikkelt
  • scenario’s en handelingsperspectieven ontwikkelt ten behoeve van beleid, toezicht en crisisbesluitvorming
  • actief samenwerkt met het Europese AI Office en internationale AI-veiligheidsinstituten

Zo’n instituut lost niet alles op. Maar zonder een publieke organisatie die AI-risico’s structureel in kaart brengt en daar gericht opvolging aan geeft door signalering, agendering, advisering en voorlichting en door verbinding van verantwoordelijke partijen om onze maatschappelijke weerbaarheid mede te versterken, blijven we op een cruciaal punt onbeschermd.

Bouwstenen zijn er

En de bouwstenen liggen er al: de AI-fabriek, het NDS AI-competentiecentrum, de AI-raad in wording. Daarbij bestaat er in Nederland al waardevolle expertise op het terrein van AI-veiligheid.
Zo heeft de Rijksinspectie Digitale Infrastructuur (RDI) een AI Safety & Security Lab (AISSL) ingericht dat technisch diepgaand onderzoek doet naar kwetsbaarheden, misbruik en veiligheidsrisico’s van AI-systemen, en daarbij samenwerkt met partijen als NCSC, Defensie en Buitenlandse Zaken. De inbedding van het lab bij een toezichthouder met een wettelijk mandaat (neem de AI-verordening) is belangrijk en noodzakelijk. Het waarborgt de onafhankelijkheid van het onderzoek en maakt ook dat bevindingen daadwerkelijk kunnen doorwerken richting toezicht en handhaving. Tegelijkertijd is zo’n lab nadrukkelijk geen AI-veiligheidsinstituut in de zin zoals ik het voor ogen heb. Het AISSL is klein, technisch inhoudelijk sterk en in de eerste plaats ondersteunend aan toezicht en handhaving. Juist dat laat zien dat de kennis en capaciteit in Nederland aanwezig zijn, maar dat een overkoepelende publieke functie ontbreekt die deze expertise structureel verbindt met maatschappelijke weerbaarheid en democratische veiligheid.

Hoe het gebeurt en onder welke ministeriële verantwoordelijkheid het komt te hangen, is een terechte vraag die bestuurlijk relevant is en die met zekerheid gaat spelen. Maar ik hoop dat de betrokkenen er niet te lang over hoeven na te denken. Want onze samenleving is nu kwetsbaar en we hebben nu hulp nodig, niet pas over een tijdje.

Wat vindt u?

Wat vindt u? Moet zo’n instituut voor het mede versterken van onze maatschappelijke weerbaarheid er komen? Wat moet het kunnen? En waar zou het bestuurlijk het beste belegd kunnen worden? Bijvoorbeeld bij Justitie en Veiligheid, Binnenlandse Zaken en Koninkrijksrelaties, Defensie, een ander ministerie, of als onderdeel van een nieuw Ministerie van Digitale Zaken?

Moet zo’n functie deel uitmaken van bestaande implementatiestrategieën of voorstellen zoals de Nederlandse Digitaliseringsstrategie, de AI-fabriek of het AI Deltaplan? En moet het zich beperken tot AI, of breder kijken naar digitale dreigingen in het algemeen?

Laat het weten in de commentaren onder dit artikel of op LinkedIn.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in