Data en ai
Blog

Een totaalverbod op Copilot en ChatGPT is geen duurzame oplossing

Poppetje met bord 'Verboden voor AI'
Een totaalverbod is geen duurzame oplossing. | Beeld: schutterstock

Een totaalverbod op Copilot en ChatGPT is geen duurzame oplossing. Overheden zouden beter kunnen inzetten op een gecontroleerde en strategische AI-aanpak. Dit betekent investeren in AI-geletterdheid, het ontwikkelen van interne AI-omgevingen en duidelijke richtlijnen voor verantwoord gebruik.

Uit een Data Protection Impact Assessment (DPIA) van de gemeente Amsterdam bleek dat Copilot niet transparant is over de verwerking van persoonsgegevens en dat gebruikers geen volledige inzage krijgen in hoe hun data wordt verwerkt. Dit sluit aan bij eerdere waarschuwingen van SURF en de Informatiebeveiligingsdienst VNG, die overheden adviseren voorzichtig om te gaan met publieke AI-tools. De gemeente besloot daarop het gebruik van Microsoft Copilot te staken en ChatGPT en andere generatieve AI-tools te verbieden voor ambtenaren.

Defensieve houding

De kern van het betoog is een voorzichtige en defensieve houding ten opzichte van AI. De gemeente vreest datalekken, onjuiste informatie en het risico dat AI-systemen beslissingen beïnvloeden op basis van onvolledige of bevooroordeelde data. Het gevolg is dat ambtenaren geen toegang meer hebben tot tools die hen kunnen ondersteunen bij slimmer werken en besluitvorming. Tegelijkertijd blijft het risico op shadow-IT bestaan: als medewerkers AI-tools blijven gebruiken buiten de formele kanalen, ontstaat er juist minder grip op data en governance.

Een verbod is begrijpelijk vanuit compliance en risicobeheersing, maar creëert het een schijnveiligheid.

Schijnveiligheid

Hoewel het besluit begrijpelijk is vanuit compliance en risicobeheersing, creëert het volgens mij een schijnveiligheid. AI verdwijnt niet, en zonder een gecontroleerd alternatief lopen overheden het risico achter te blijven op digitalisering. Initiatieven zoals DefGPT (Defensie) en GPT-NL (een Nederlands AI-model in ontwikkeling) laten zien dat er wél gewerkt wordt aan veiligere, lokaal gehoste alternatieven. Maar realistisch gezien zullen deze oplossingen voorlopig niet het niveau halen van ChatGPT of vergelijkbare geavanceerde AI-modellen. De ontwikkeling van deze systemen vergt tijd, expertise en aanzienlijke investeringen.

Gecontroleerde en strategische AI-aanpak

AI is geen hype, maar een technologische realiteit die de manier waarop we werken fundamenteel verandert. De uitdaging is niet om AI tegen te houden, maar om het verantwoord en doelgericht te integreren in publieke organisaties. Een totaalverbod is dan geen duurzame oplossing. Overheden zouden in plaats daarvan moeten inzetten op een gecontroleerde en strategische AI-aanpak. Dit betekent investeren in AI-geletterdheid, het ontwikkelen van interne AI-omgevingen en duidelijke richtlijnen voor verantwoord gebruik. Organisaties die AI-systemen ontwikkelen of gebruiken moeten sinds 2 februari 2025 ervoor zorgen dat hun werknemers ‘AI-geletterd’ zijn. Personeel moeten genoeg weten van AI om het op een verantwoorde manier in te kunnen zetten.

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren