Digitale weerbaarheid
Nieuws

AIVD ziet mogelijkheden criminelen en staatshackers met LLM’s flink toenemen

Staatshackers van landen met een offensief cyberprogramma en cybercriminelen krijgen door kunstmatige intelligentie (AI) steeds meer mogelijkheden om cyberaanvallen efficiënter en geavanceerder uit te voeren. Dat stelt de AIVD in een analyse.

In het rapport ‘Versterkte dreigingen in een wereld vol kunstmatige intelligentie’ beschrijft de organisatie op basis van experts en onderzoeken dat AI een groeiende bedreiging vormt voor de digitale veiligheid en zelfs voor vitale infrastructuren. Generatieve AI-systemen, zoals ChatGPT, Gemini en Llama, worden niet alleen door gewone gebruikers ingezet, maar ook door kwaadwillenden. Waar technische kennis vroeger een vereiste was, kunnen LLM’s (Large Language Models) nu als hulpmiddel dienen om ook minder technisch onderlegde criminelen effectieve aanvallen te laten uitvoeren. Daarnaast maken AI-systemen malware intelligenter en moeilijker te detecteren, wat leidt tot langdurige onzichtbare aanvallen.

Informatie over IT-systemen vergaren

Onderzoekers toonden bijvoorbeeld aan dat ChatGPT gebruikt kan worden om snel informatie te vergaren over het IT-systeem van een bank. ‘Hoewel dit soort informatie vaak ook openbaar op het internet te vinden is, kunnen LLM’s het proces om deze informatie te verzamelen aanzienlijk versnellen’, schrijft de AIVD. Daarnaast kunnen LLM’s gebruikt worden om geautomatiseerd en snel zeer overtuigende spam en phishing-mails te schrijven. Ze bieden de mogelijkheid om foutloze teksten in verschillende talen te genereren, ook als een cyberactor die taal zelf niet machtig is. LLM’s stellen de cybercriminelen in staat om snel te reageren vanuit een bepaalde context met specifieke schrijfstijlen. Daarmee is het mogelijk om een specifiek persoon na te doen.

Malware genereren

LLM’s kunnen ook werken met spearphishing-mails, die op de ontvanger zijn toegesneden. Ze geven een grotere kans dat de ontvanger deze als ‘betrouwbaar ‘beoordeelt. Met LLM’s is het volgens de AIVD ook mogelijk om malware te generen en cyberaanvallen uit te voeren die ze technisch gezien niet zouden kunnen doen zonder de hulp van AI. Met LLM’s kunnen kwetsbaarden worden gevonden in stukken code en malware kan met AI ook intelligenter worden gemaakt, waardoor het zelfstandig nieuwe kwetsbaarheden kan vinden.

Invloed op nationale veiligheid

‘De invloed van AI op de nationale veiligheid zal de komende jaren waarschijnlijk vooral bepaald worden door kwaadwillenden die doelbewust AI-toepassingen gebruiken om hun eigen doelen te verwezenlijken ten koste van de Nederlandse nationale veiligheidsbelangen’, sluit de AIVD af.

Lees meer:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren