In de visie op generatieve artificiële intelligentie (AI): Verantwoord vooruit schetst de toezichthouder hoe generatieve AI veilig, verantwoord en in lijn met grondrechten kan worden ingezet. De AP kijkt vooruit en ziet mogelijkheden, maar waarschuwt tegelijk voor reële maatschappelijke risico’s.
AP waarschuwt voor Wild West scenario als we geen duidelijke regels stellen aan GenAI
De impact van generatieve AI wordt steeds duidelijker, mede door de wildgroei aan applicaties die in hoog tempo op de markt komen. Veel toepassingen komen bovendien van Amerikaanse techbedrijven. Als we geen duidelijke regels stellen, komen we terecht in een ‘Wilde Westen-scenario’, waarschuwt de Autoriteit Persoonsgegevens (AP) in een advies dat ze vandaag presenteert.
Stevige vangrails nodig
Het is ongelooflijk wat generatieve AI ondertussen allemaal al kan. Denk aan apps die mensen ongewenst op beeld uitkleden of aan chatbots die hulp zeggen te bieden bij psychische problemen. Daarbij gebruiken mensen chatbots ook steeds vaker als enige informatiebron. De AP vindt deze ontwikkeling zorgelijk, omdat organisaties GenAI vaak te snel inzetten, zonder vooraf voldoende aandacht te besteden aan de gevolgen voor mensen en samenleving.
‘Dit brengt nieuwe en complexe uitdagingen op het gebied van beheersing met zich mee’, zegt Aleid Wolfsen, voorzitter van de AP. ‘Generatieve AI biedt enorme kansen, maar we moeten de technologie zorgvuldig inzetten. Innovatie is welkom, maar wel voorzien van stevige vangrails.’ Volgens de AP is het daarbij essentieel dat AI-modellen in lijn met de Algemene verordening gegevensbescherming (AVG) en AI-verordening rechtmatig zijn getraind en rechtmatig worden ingezet.
Risico’s
Het gebruik van GenAI maakt ons als maatschappij kwetsbaar. De AP schetst vier risico’s voor de komende tijd:
- Ongekend snelle centralisatie van gevoelige data plaats. De AP doelt hiermee op de wijze waarop GenAI inzetten voor zeer persoonlijke doeleinden, waaronder het bespreken van persoonlijke problemen met bijvoorbeeld ChatGPT.
- Concentratie van AI-gebruik bij een klein aantal aanbieders. Hierdoor ontstaat een ongewenste maatschappijbrede afhankelijkheid.
- Technologische afhankelijkheid wordt de laatste jaren ingezet als drukmiddel en maakt burgers en de EU kwetsbaar.
- Onvoldoende sturingsmogelijkheden op verantwoord gebruik.
Toekomstscenario’s
In de visie beschrijft de AP een viertal toekomstbeelden op twee assen: adoptiegraad en effectiviteit EU-regelgeving.
Zonder duidelijke regels komen we terecht in een wilde Westen-scenario, waarin de markt wordt gedomineerd door onverantwoorde generatieve AI: regelgeving en handhaving lopen achter, ontwikkelaars negeren grondrechtenrisico’s. Gevolgen: datalekken, manipulatie, verlies van menselijk contact, wijdverspreide desinformatie en invloed op verkiezingen. Het vertrouwen in overheid en bescherming van burgers keldert, terwijl afhankelijkheid van AI en digitale uitsluiting toenemen.
In een waardengedreven scenario is dankzij effectieve Europese regelgeving en forse investeringen een bloeiend ecosysteem ontstaan. Toezichthouders harmoniseren regels en faciliteren een level playing field; AVG‑compliant toepassingen en heldere standaarden maken verantwoorde AI de norm. Een lerende cultuur verhoogt vertrouwen, maar afhankelijkheid van AI blijft bestaan, dus toekomstbestendige wetgeving en kritisch burgerschap blijven cruciaal.
In het scenario van gemiste kansen valt Europa stil doordat complexe en onduidelijke wet- en regelgeving leidt tot onzekerheid. Buitenlandse alternatieven veroorzaken incidenten; bescherming van burgers blijkt onmogelijk. Gebruik en ontwikkeling van generatieve AI in de EU blijven laag, kennisopbouw stokt, startups vertrekken. De EU raakt irrelevant en de achterstand en ongelijkheid nemen toe.
In een bunker-scenario belemmert overmatige voorzichtigheid innovatie. Grondrechten en publieke waarden zijn goed beschermd, maar bedrijven zoeken buitenmarkten. Resultaat: weinig toepassingen, gemiste kansen, verlies van internationale positie en kennisopbouw in onderwijs en zorg. Digitale strategische autonomie faalt deels, economische concurrentiekracht daalt en de kloof met landen die AI benutten groeit.
Kiezen voor waarden
‘Generatieve AI is nog bestuurbaar. Maar alleen als we nu kiezen voor waarden als uitgangspunt, en niet voor snelheid als norm’, zegt Wolfsen. ’Wanneer een technologie razendsnel wordt geïntegreerd in onderwijs, zorg, media en bestuur, zonder gedeeld normatief kader, ontstaat geen innovatie-ecosysteem, maar een maatschappelijk experiment zonder protocol. Daarom moeten we nu keuzes maken.’

Plaats een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.
Begrijpelijke analyse van de Autoriteit Persoonsgegevens (AP), maar ontzettend traditioneel en zij berust op aannames die wellicht herzien kunnen worden. Moet pragmatischer kunnen. Om te beginnen wordt hier impliciet uitgegaan van een top-down regulering als primaire oplossing, met stevige regelgeving en toezicht als dé om generatieve AI in goede banen te leiden. Er is nauwelijks Nederlandse AI en de mogelijkheid van bottom-up innovatie en zelfregulering door individuen en organisaties binnen een gedistribueerd ecosysteem wordt hier nog totaal niet meegewogen. Met alle risico op overregulering ("bunker-scenario"), juist terwijl innovatie zo keihard nodig is en juist dankzij AI snel en conceptueel samenhangend, multidisciplinair kan worden opgelopen. Er wordt voetstoots aangenomen dat generatieve AI onvermijdelijk leidt tot centralisatie van data en macht bij een klein aantal grote aanbieders, terwijl dat helemaal niet zo is of hoeft te zijn. De potentie van gedecentraliseerde ecosystemen, zoals data spaces, wordt compleet genegeerd, waarin organisaties en individuen sowieso zelf controle houden over hun data en beslissingen en er dus veel meer controle is op de data sets die aan de AI ter training worden aangeboden. De AP lijkt ook te impliceren dat technologische afhankelijkheid een gegeven is, zonder te erkennen dat alternatieve modellen, zoals open-source AI, federatieve systemen en interoperabiliteit technologische autonomie wel degelijk kunnen versterken. Het zou een domper op de innovatie zetten om te streven naar uniforme oplossingen en standaarden, terwijl de kracht van een divers ecosysteem waarin verschillende spelers en benaderingen kunnen floreren, onvoldoende wordt benadrukt en dus bij voorbaat geen kans krijgt.
De trend in de EU is richting gedecentraliseerde data spaces met identiteits- en autorisatieregisters; dus een alternatief voor de gecentraliseerde benadering. Hier kunnen individuen en organisaties wel degelijk zelf bepalen hoe hun data wordt gedeeld en met wie, ondersteund door identiteits- en autorisatieregisters. Dit model bevordert autonomie en transparantie, terwijl het risico op misbruik van data by default wordt vermindert. Denk aan gebruik van Self-Sovereign Identity (SSI) en Distributed Ledger Technology (DLT), naast allerlei anonimisering/pseudonimisering/veronimisering technieken. Dus in plaats van enkel te vertrouwen op externe toezichthouders, kunnen organisaties governance en compliance veel beter direct in hun systemen integreren (Security by Design). Dit houdt in dat AI-modellen al standaard zijn ontworpen met wettelijke en ethische principes, zoals AVG-compliance of welke compliance ook.
Lokale autorisatieregisters kunnen zorgen dat alleen geverifieerde gebruikers toegang krijgen tot gevoelige gegevens. Pragmatischer zou daarom zijn om de federatieve samenwerking binnen de EU-ecosystemen op te zoeken en de nadruk te gaan leggen op federatieve modellen, waarin meerdere Europese partijen samenwerken binnen een gedeeld normatief kader, zonder afhankelijk te zijn van één centrale autoriteit. Initiatieven, zoals Gaia-X zijn voorbeelden van hoe dit kan werken. In plaats van burgers enkel te beschermen, kunnen individuen juist worden empowered met educatieve tools om AI bewust en kritisch te gebruiken. Dit versterkt digitaal burgerschap en vermindert afhankelijkheid van externe regulering. In plaats van starre, uniforme regelgeving, zou een meer modulair en adaptief beleid kunnen worden ingevoerd dat ruimte biedt voor experimentele zones (zoals sandboxing) waarin nieuwe toepassingen veilig kunnen worden getest en beoordeeld. Dit combineert innovatie met bescherming. Zo kan, juist in Europa, een bloeiend ecosysteem ontstaan dat innovatie stimuleert, terwijl grondrechten worden beschermd. Door individuen en organisaties verantwoordelijkheid te geven binnen een data space-model, kan een balans worden gevonden tussen vrijheid en bescherming.