De opkomst van AI-chatbots en manipulatie van informatie door kunstmatige intelligentie dreigt de Europese verkiezingen van 2024 in gevaar te brengen. Daarvoor waarschuwt de European Union Agency for Cybersecurity (ENISA) in de onlangs gepubliceerde ‘Threat Landscape 2023‘
Overheid voornaamste doelwit
Het Europese cybersecuritybureau registreerde tussen juli 2022 en juni 2023 2580 incidenten, een toename van een kleine drieduizend ten opzichte van het jaar daarvoor. Voornaamste doelwit van cyberaanvallen op specifieke sectoren waren overheidsdiensten. 19 procent van de incidenten waren daarop gericht. Tweede doelwit was de gezondheidszorg met 8 procent en op de derde plaats, met 6 procent, kwam de transport- en financiële sector.
Informatiemanipulatie
Een merendeel van de geregistreerde incidenten waren gericht op informatiemanipulatie, bijvoorbeeld met deepfakes. Dat zijn nepfilmpjes die verraderlijk echt lijken. Daarmee is het heel eenvoudig om politici met hun eigen stem dingen te laten zeggen die ze nooit gezegd hebben. ‘Kunstmatige intelligentie, deepfakes en vergelijkbare technieken zijn perfect voor realistische en gerichte aanvallen’, aldus ENISA.
Maatregelen nemen
Het Europees cyberbureau noemt de toename van het aantal incidenten ‘een zorgwekkende stijging’. Het rapport benadrukt dan ook de dringende noodzaak voor overheden en cybersecurity-experts om gezamenlijk maatregelen te treffen om de verkiezingen eerlijk te laten verlopen.
Het Europees Agentschap voor Cyber Security (ENISA), opgericht in 2004, heeft tot taak informatienetwerken en daarmee verstuurde gegevens te helpen beveiligen. Jaarlijks brengt ENISA een ‘Threat Landscape’-rapport waarin ze het cyberdreigingslandschap in kaart brengen om besluitvormers, beleidsmakers en veiligheidsspecialisten te helpen strategieën te definiëren om burgers, organisaties en cyberspace te verdedigen.
Dit artikel werd eerder gepubliceerd bij onze collega’s van Binnenlands Bestuur
Om AI de schuld te geven is veel te kort door de bocht.
Waar de Staat goed aan zou doen, is om sociale media platforms te verplichten om een beperking in te stellen op het aantal doorgestuurde berichten, tot bijvoorbeeld vijf chats per keer, zodat het moeilijker wordt om geautomatiseerd massa-berichten af te vuren, die maatschappelijke sentimenten onnatuurlijk beïnvloeden. Leg sancties op aan partijen die betrapt worden op het gebruik van Social Bots voor perceptie beïnvloeding. Verplicht sociale media platforms om transparant te zijn over het gebruik van bots door bot-accounts te markeren om kiezers te laten weten dat ze met een bot interageren. Onderwijs het publiek over de aanwezigheid van Social Bots en hoe je ze kunt herkennen, om mensen kritischer te maken over de informatie die zij online consumeren. Investeer in technologieën om bots te detecteren en te blokkeren en maak afspraken met sociale media platforms om effectievere mechanismen te ontwikkelen om bots te identificeren en te verwijderen. Voer Reputatie Management in, net als bij TV Kijkadvies, of een opiniemaker werkelijk wel betaald wordt door degene die hij claimt te representeren. Niet elke Professor is ook echt een Professor. Follow the Money: maak transparant hoe politici aan funding komen. Begin alleen geen hetze tegen ‘AI’.
Social bots zijn als kleine robotjes op sociale media platforms zoals Facebook, Twitter en Instagram. Deze bots kunnen automatisch berichten posten, reacties geven en berichten delen zonder dat er een echt persoon bij betrokken is. Die bots kun je gebruiken om (vaak over landen heen, zoals QAnon) bepaalde ideeën of meningen te verspreiden, zodat zij een grote invloed kunnen hebben – vooral tijdens verkiezingstijden wanneer mensen op zoek zijn naar informatie om hun stem op te baseren. Deze bots kunnen bijvoorbeeld nepnieuws verspreiden of opruiende berichten posten om mensen tegen elkaar op te zetten. Dit helpt ook feitelijke marginale partijen om een aanzienlijk deel van de kiezers te bereiken en mogelijk hun meningen te beïnvloeden. Rond Brexit en de Trump campagne speelden bedrijven, zoals Cambridge Analytica een grote rol gespeeld in dit proces. Dit bedrijf gebruikte gegevens van miljoenen Facebook-gebruikers om gerichte politieke advertenties te maken die specifiek waren afgestemd op individuele kiezers. Dit wordt gezien als een vorm van “het kopen van verkiezingen”, omdat het de publieke opinie sterk kan beïnvloeden. Soortgelijke diensten kun je kopen bij bedrijven als Palantir Technologies, een Amerikaans softwarebedrijf dat gespecialiseerd is in big data-analyse, of het Britse bedrijf SCL Group, dat gedragsverandering en strategische communicatie voor politieke campagnes aanbiedt.
Het politieke discours is deels verschoven naar sociale media-ecosystemen.
Daardoor worden internetgebruikers (on)bewust via sociale platforms betrokken, door hen te karakteriseren als onderdeel van ideologische bubbels (Pariser, 2011). Met Data Science kun je democratie gewoon kopen, door sociale media met Social Bots te triggeren op populatie segmentaties op basis van demografische gegevens, zoals geografische regio en inkomen, op sociologische gegevens, zoals wie je allemaal volgt en wie jou volgen en op psychometrische gegevens, zoals hoe jij je voelt (op welke locatie, tijd van de dag, nabijheid van vrienden, bij welke activiteit, temperatuur, weertype en met welke muziek op de achtergrond?)
Het zijn je eigen # hash tags die je interesses doorzoekbaar maken. Jouw ‘whim of the moment’ leidt tot een uiterst verfijnd beeld van positieve en negatieve reacties op specifieke content, in relatie met eerder afgegeven aanwijzingen en indicaties voor jouw status van opwinding, instemming, begrip, gevoel voor ironie en parodie. En dan meten we nog maar ‘likes’. Nu weten ‘zij’ ook welke content, hoe, waar en wanneer moet worden aangeboden om bepaalde vooraf gewenste reacties op te roepen. Als een spreeuw in een zwerm, die niet weet dat hij patronen maakt.
Inmiddels hebben politieke partijen waarschijnlijk meer bot-volgers dan leden.
Door psychometrische relaties te leggen op basis van je interesses, handelingen en andere postdemografische factoren, die samen correlaties oproepen hoe jouw aandacht kan worden getrokken, kan je associatieve gevoel en mening over hele sociale concepten worden beïnvloed. AI is hierbij een middel. Geen oorzaak.
Data genereren levert de grondstof voor metingen, voor ontologie ontwikkeling (kennisbeschrijving), voor logica en voor zelf gestelde of van buitenaf opgelegde handelingsbeperkingen. Generieke inzichten die nog kunnen nuanceren, verliezen het van tijdelijke hypes, waarin smaken en interesses plotseling irrationeel gefocust kunnen zijn op iets dat helemaal niet waar hoeft te zijn. Met sociale botnets, timing en een helder eigen doel, is het eenvoudig geworden om de meute, om hun eigen individuele redenen, achter een waanbeeld te laten rennen. Kwestie van 80% waarheid uit de tweet, post, update, statement, conversatie, foto en video historie, combineren met 20% onzin en een significante hoeveelheid botnet traffic. Het verschil tussen wat je kunt meten en hoe je zaken wilt meten (analyse methoden) ligt in de invalshoek. De data die je gebruikt, beïnvloeden je inzicht.
Het is cruciaal om data sets in relatie tot andere waarden te blijven beschouwen.
Als overheid kun je onderzoeken wie die algoritmes voor al die dataficatie, metrificatie en media analyse tools schrijven en hoe vooroordelen worden vertaald in profileringscriteria, waarvoor de data worden opgebouwd uit gebruiksgeschiedenis van allerlei devices, sociale media platforms en andere genetwerkte activiteiten.
Dus helderheid omtrent targeting, profilering, (inter)activiteitmeting, geldstromen en zichtbaarheid, die samen de relaties helpen verduidelijken tussen persoonsgegevens en publieke data combinaties.
Het antigif van fake news bestaat uit transparante, versleutelde en gehashte procedures, tijdelijke noodzakelijke componenten binnen sociale media platforms en activiteiten. Het gaat om het combineren van gewenste gebeurtenissen met gelogde ontwikkelingen, transities en tijdlijnen, door gebruik te maken van time stamps in digitale processen. Hier ligt een hele nieuwe taak te wachten voor bibliotheken, de open data beweging en eScience. Omwille van het vermogen van het individu om data te kunnen ontsluiten, kritisch te bevragen op consistentie en kwaliteit, beheren, gebruiken en ethisch kunnen inzetten. Hiervoor moeten mensen data kunnen begrijpen, vinden en/of (onveranderd) kunnen verkrijgen, lezen, interpreteren en gebruiken.
Een hechte gemeenschap van supporters, met een groot netwerk van groepen en kanalen om vrijelijk onzin informatie te verspreiden, zonder enige inhoudsmatiging en bedoeld om politieke acties op straat op te roepen/mobiliseren, is iets anders dan een breed geïnformeerd electoraat.
Het massaal afvuren van informatie en desinformatie om de overtuigingen van geradicaliseerde volgelingen aan te trekken en te versterken en om politieke tegenstanders te bekritiseren, is iets anders dan een open maatschappelijk discours.
De Overheid zou de patronen kunnen uitleggen van de verspreiding van desinformatie en online politieke mobilisatie. Polarisatie en bewapende communicatie zijn niet bedoeld om het land beter te maken, maar om legitimiteit en besluitvaardigheid te ondergraven door Fear Uncertainty and Doubt (FUD). Microblogging en instant messages maken elk individu tot target, die dankzij zijn eigen likes, favorites en hashtags precies heeft aangegeven waar zijn eigen open zenuwen liggen. Messaging apps maken top-down strategieën (kanalen die massale berichten naar groepen supporters sturen) en bottom-up acties (coördinatie van mobilisaties en campagnes van kleine groepen) mogelijk en verkrachten de Vrijheid van Meningsuiting, waardoor de grenzen van aanvaardbare normen van de openbare cultuur worden verlegd. Het napraten van misinformatie is geen Eigen Mening.
Dit kun je wetenschappelijk bewijzen dankzij tools voor datamining en netwerk- en onderwerpmodellering technieken.