De hoeveelheid data die organisaties in 2025 naar AI-tools stuurden, steeg met 93 procent ten opzichte van een jaar eerder. Het gaat hier om tienduizenden terabytes. En het zijn niet alleen taken zoals een tekst samenvatten of een e-mail herschrijven, maar ook coderen. Zo behoort Codeium, een AI-tool voor softwareontwikkeling, tot een van de meest gebruikte applicaties. Dat betekent dat grote hoeveelheden eigendomscode, inclusief die van overheidssystemen, worden verwerkt door externe AI-diensten. Adoptie en datarisico zijn daarmee onlosmakelijk met elkaar verbonden.
AI in de publieke sector
De publieke sector staat bekend om haar zorgvuldige aanpak als het gaat om technologische vernieuwing. Dat geldt zeker ook voor het gebruik van kunstmatige intelligentie. Toch liegen de adoptiecijfers er niet om. Gezamenlijk hebben de overheid, de zorg en het onderwijs bijna één biljoen AI-transacties in een jaar. Tegelijkertijd loopt de beveiliging van gevoelige data gevaarlijk achter. Dit blijkt allemaal uit het Zscaler ThreatLabz 2026 AI Security Report.
Gezondheidszorg: veel AI gebruik, veel blokkades
Binnen de publieke sector is de zorg het verst gevorderd in het gebruik van AI. In totaal was de sector met 71 miljard AI-transacties verantwoordelijk voor 7,2 procent van alle AI-activiteit in de Zscaler-cloud. AI wordt daar steeds vaker geïntegreerd in zowel patiëntgerichte als administratieve processen. Denk aan systemen die patiëntgegevens analyseren, administratieve taken automatiseren of de toegang tot zorgdiensten verbeteren.
Opvallend is dat de zorgsector ook het hoogste percentage geblokkeerde AI-transacties kende, namelijk 8,5 procent. Dat heeft een duidelijke reden, namelijk dat zorginstellingen werken met sterk gereguleerde data. Zodra AI-toepassingen toegang krijgen tot patiëntinformatie of andere gevoelige gegevens, ontstaan er risico’s rond privacy en compliance. Het hogere percentage geblokkeerde transacties laat zien dat beveiligingsteams actief proberen die risico’s te beheersen.
Overheid: voorzichtige groei
Overheidsinstanties waren in 2025 goed voor 38 miljard AI-transacties, zo’n 3,8 procent van het totaal. De toepassingen zijn divers: van het opstellen van documenten en samenvatten van rapporten tot interne procesautomatisering. Zeker in organisaties waar personeel onder druk staat, kan AI helpen om efficiënter te werken. Toch blijft de overheid relatief voorzichti met het blokkeren van 4 procent van de AI-activiteit. Voorzichtiger dan het onderwijs, maar minder restrictief dan de zorg.
De grootste uitdaging voor overheidsorganisaties is consistentie. AI-gebruik verspreidt zich vaak over verschillende ministeries, agentschappen en afdelingen, elk met hun eigen governance en beleidskaders. Volgens een onderzoek van het Amerikaanse Government Accountability Office uit 2025 hebben veel overheidsinstanties moeite om gelijke tred te houden met veranderende regelgeving en beleidsrichtlijnen.
Onderwijs: snelste groei, minste rem
De meest opvallende cijfers komen uit het onderwijs met een jaar-op-jaargroei van 184 procent is het een van de snelstgroeiende sectoren in AI-gebruik. Toch blijft het totale volume relatief klein met 16 miljard, wat ongeveer 1,6 procent van alle AI-activiteit in de Zscaler-cloud is Tegelijkertijd wordt slechts 0,6 procent van de AI-activiteit tegengehouden.
De conclusie is ongemakkelijk: de sector die het hardst groeit in AI-gebruik, heeft tegelijk de minste beschermingsmaatregelen op orde. Die openheid heeft voordelen, bijvoorbeeld voor innovatie en experimenteren, maar het brengt ook risico’s met zich mee. Vooral op het gebied van privacy, academische integriteit en governance. Naarmate AI-gebruik verder toeneemt, zullen onderwijsinstellingen sneller moeten investeren in betere beveiligingsmaatregelen.
De sector die het hardst groeit in AI-gebruik, heeft tegelijk de minste beschermingsmaatregelen op orde.
AI als wapen van aanvallers
Naast kansen brengt AI ook bedreigingen met zich mee. Generatieve AI verandert niet alleen hoe organisaties werken, maar ook hoe cybercriminelen opereren. Met behulp van AI kunnen aanvallers sneller phishingcampagnes opzetten, overtuigendere aanvallen uitvoeren of kwetsbaarheden analyseren.
Voor organisaties in de publieke sector betekent dit dat AI-beveiliging steeds belangrijker wordt. Niet alleen om gevoelige data te beschermen, maar ook om te voorkomen dat nieuwe technologieën zelf een ingang vormen voor cyberaanvallen. AI is niet langer een experiment, maar een structureel onderdeel van de digitale infrastructuur. Voor de publieke sector ligt de uitdaging nu in het vinden van de juiste balans tussen innovatie, efficiëntie en robuuste beveiliging.
Prioriteiten voor beveiligingsteams
Wat betekent dit voor beveiligingsprofessionals in de publieke sector? Ten eerste: zorg voor zichtbaarheid. Je kunt niet beschermen wat je niet kunt zien. Een inventarisatie van welke AI-tools worden gebruikt is de eerste stap. Ten tweede: classificeer data consequent. Bepaal welke informatie in externe AI-diensten mag worden verwerkt. Ten derde: stel sectorspecifiek beleid op. De risico’s in de zorg zijn andere dan in het onderwijs of bij een gemeente. Een generieke aanpak schiet tekort.
De publieke sector kan zich geen naieve houding tegenover AI permitteren. De technologie biedt enorme kansen voor efficiëntere dienstverlening aan burgers, maar alleen als de beveiliging gelijke tred houdt met de adoptie. De cijfers laten zien dat dit nu nog niet het geval is.
Meer weten?
Bekijk hier het volledige onderzoeksrapport.

Plaats een reactie
U moet ingelogd zijn om een reactie te kunnen plaatsen.