AI in cybersecurity: een medaille met twee zijden
Wat krijg je als je cybersecurity en Artificiële Intelligentie (AI) combineert? Snellere detectie van bedreigingen, kortere responstijden, betere beveiligingsmaatregelen…. Dat is heel positief, maar helaas slechts gedeeltelijk correct. Er zit namelijk ook een keerzijde aan deze medaille, namelijk de risico’s die AI met zich meebrengt. Ook overheidsorganisaties moeten proberen de voordelen van AI te benutten, maar tegelijk ook waakzaam zijn voor de gevaren van AI.
AI is meer dan een ‘trending topic’. Deze vorm van machine learning maakt gebruik van neurale netwerken. Het evolueert zo snel dat zelfs Elon Musk de groei ervan niet kan tegenhouden – als hij dat al zou willen. Bloomberg Intelligence voorspelt dat de markt voor generatieve AI zal groeien van 40 miljard dollar in 2022 tot 1,3 biljoen dollar in de komende tien jaar. Dat wijst er op dat AI doordringt in alle sectoren van onze samenleving. Ook overheden maken steeds meer gebruik van AI, zoals bleek tijdens een recente vergadering van de Amerikaanse National Association of State Chief Information Officers (NASCIO). Chatbots maken het makkelijker om meer burgers tegelijk te helpen, en AI levert ook een bijdrage bij het automatiseren van overheidprocessen en bij de dienstverlening.
AI helpt bij cyberbeveiliging voor overheden
De rol van AI in cyberbeveiliging bij overheden en andere organisaties kan niet overschat worden. Het biedt verbeteringen op het gebied van het detecteren van bedreigingen, reageren op incidenten en het maken van voorspellende analyses. Door het analyseren van enorme datasets kan AI veel sneller dan menselijke analisten afwijkingen identificeren die duiden op cyberbedreigingen, van malware tot pogingen tot phishing. Bovendien automatiseert AI de reacties op deze bedreigingen, waarbij incidenten worden geprioriteerd op basis van risico en aanvallen op efficiënte wijze worden tegengehouden. Deze automatisering strekt zich uit tot het onderzoeken van incidenten, waarbij AI-systemen snel gegevens kunnen correleren en analyseren om inzicht te krijgen in de reikwijdte, en de impact van aanvallen, doordat de reactietijd aanzienlijk wordt verkort.
Overheidsdiensten kunnen ook voordeel doen door de voorspellende preventie van bedreigingen waarin AI uitblinkt. Hierbij worden algoritmen toegepast om te anticiperen op potentiële aanvallen en deze al te blokkeren nog voordat ze werkelijkheid zijn geworden. Deze preventieve aanpak, gekoppeld aan het vermogen van AI om de hoofdoorzaak te analyseren, laat het potentieel van de technologie zien om niet alleen te reageren op cyberbedreigingen, maar deze ook te voorkomen. In tegenstelling tot manuele analyse zal AI zorgen voor minder menselijke fouten en false positives. AI kan immers veel meer data analyseren en correleren dan een mens.
De keerzijde van de medaille: door AI gecreëerde bedreigingen
De voordelen van AI in cyberbeveiliging gaan echter gepaard met aanzienlijke risico’s. Cybercriminelen maken steeds vaker gebruik van AI om geavanceerde en effectieve aanvallen uit te voeren. Deze variëren van vijandige aanvallen die zijn ontworpen om machine learning-modellen te misleiden, tot generatieve AI-modellen die worden gebruikt om overtuigende phishing-e-mails op te stellen. Zo wordt AI onder meer ingezet om mails op te stellen die makkelijker door spamfilters heen komen. Of AI wordt ingezet om op een sluwe manier in te spelen op zero-day kwetsbaarheden.
Overheden ondernemen actie rond AI
Het toenemende gebruik van AI bij cyberaanvallen is een nationale en wereldwijde zorg geworden. In de Verenigde Staten heeft het Witte Huis al diverse waarschuwingen uitgestuurd. En de oprichting van het de Europese AI-alliantie benadrukt de proactieve maatregelen van de overheid om AI-gerelateerde bedreigingen van de cyberveiligheid aan te pakken. Deze inspanningen onderstrepen het belang van nationale en wereldwijde samenwerking in de strijd tegen de grote bedreiging die AI vormt op het gebied van cyberbeveiliging. Maar ook op lokaal vlak moet actie ondernomen worden. Zo schrijven Amerikaanse overheidsdiensten als de LA County nieuwe procedures uit om te bepalen wat AI wél en niet mag doen.
Ook in Nederland onderkent de overheid de gevaren van generatieve AI. Waar enkele jaren geleden vooral beklemtoond werd dat Nederland sneller moet inspelen op de mogelijkheden van AI, wordt nu in toenemende mate gewezen op de uitdagingen die AI meebrengt. Begin dit jaar schreef het demissionaire kabinet nog een overheidsbrede visie uit, waarin op de gevaren van AI wordt gewezen: “Generatieve AI kan bijvoorbeeld worden ingezet voor de creatie en verspreiding van desinformatie; het kan discriminatoire dynamieken versterken en het kan sociaaleconomische ongelijkheden versterken. Het gebruik van generieke AI kan ook systemische risico’s tot gevolg hebben als verstoring van vitale processen.” Een visie alleen is niet genoeg, zegt de Cyber Security Raad die wil dat Nederland meer doet voor onze digitale veiligheid. Voor deze raad moet dit hoog op de agenda staan van een nieuw kabinet. Het laat zich raden dat zowel Europese als lokale overheden binnenkort hun regelgeving rond AI gaan aanscherpen.
Automatisering en AI slaan de handen in elkaar
Ondanks de risico’s is de toekomst van cyberbeveiliging onlosmakelijk verbonden met AI. Leveranciers van oplossingen voor cyberbeveiliging ontwikkelen AI-gestuurde oplossingen om AI-gestuurde aanvallen tegen te gaan. Hierbij ligt de nadruk op het verbeteren van mogelijkheden op gebieden als preventie van gegevensverlies, fraudedetectie en risicobeheer. Deze AI-tools bieden volop nieuwe mogelijkheden voor cyberbeveiliging en kunnen de detectie, preventie en reactie op cyberbedreigingen aanzienlijk verbeteren.
Bij Tanium zijn we een pionier op vlak van Autonomous Endpoint Management (AEM). We zetten AI in om aanbevelingen op maat te doen en acties te automatiseren op basis van realtime endpoint-gegevens. Deze aanpak betekent een verschuiving naar meer autonome, door AI gestuurde oplossingen voor cyberbeveiliging. Deze zijn in staat de complexiteit van het beheren van IT-infrastructuren drastisch terug te dringen en het beveiligen ervan enorm te verbeteren. Daarnaast is Tanium nauw betrokken bij Microsoft Copilot for Security een nieuw Microsoft product dat AI inzet om de cybersecurity te verhogen.
De integratie van AI in cyberbeveiliging luidt een nieuw tijdperk in van verbeterde beveiligingsmogelijkheden, maar ook complexe uitdagingen. Hoewel AI een transformerend potentieel biedt voor het verbeteren van de detectie van bedreigingen, incidentrespons en voorspellende analyses, brengt het ook nieuwe kwetsbaarheden met zich mee die cybercriminelen snel weten uit te buiten. De dynamische wisselwerking tussen de voordelen en risico’s van AI vereist een waakzame, adaptieve benadering van cyberbeveiliging, waarbij het belang van voortdurende innovatie en samenwerking tussen sectoren wordt benadrukt. Terwijl we door dit veranderende landschap navigeren, zal de synergie tussen AI en cyberbeveiliging ongetwijfeld de toekomst van digitale beveiliging vormgeven. Het zal zowel ongekende mogelijkheden als uitdagingen bieden bij het beveiligen van onze digitale overheden.