Digitalisering en democratie
Onderzoek

EPTA rapport 2024 ‘AI en democratie’

Het EPTA-rapport biedt een interessant kijkje in de keuken bij verschillende landen, zowel in Europa als in de VS en Azië. | Beeld: Shutterstock

Jaarlijks komen Europese parlementariërs en kennisinstituten samen tijdens de conferentie van het
network of Parliamentary Technology Assessment (EPTA) om zich te buigen over de impact van technologie op de samenleving. Dit jaar was het thema AI en democratie. Het EPTA rapport dat tijdens de conferentie in Oslo deze maand werd gepresenteerd, geeft een interessant kijkje in de keuken bij verschillende landen, zowel in Europa als in de VS en Azië.

Beleidsmakers moeten mensen beschermen tegen blootstelling aan schadelijke inhoud waardoor ze een beter onderscheid kunnen maken tussen wat authentiek en verzonnen is, stellen de makers van het rapport. De uitdaging is om dit te bereiken en tegelijkertijd de vrijheid van meningsuiting te beschermen.

Digitale veerkracht

Geen enkel beleid zal desinformatie waarschijnlijk kunnen uitroeien. Dus moet volgens de EPTA-leden vooral gewerkt worden aan het opbouwen van digitale veerkracht. Beleidsmaatregelen moeten moeten bijdragen aan de mogelijkheid om je als mens of organisatie te kunnen verzetten tegen desinformatie. De meeste landen, waaronder Oostenrijk, Nederland en Noorwegen ontwikkelen strategieën om desinformatie tegen te gaan. Andere landen implementeren ook nieuwe wetten, richten nieuwe agentschappen op en sluiten nieuwe richtlijnen voor verantwoord AI-gebruik.

Voor dit rapport werden 19 landen beoordeeld op de wijze waarop ze omgaan met:

  • AI in politieke campagnes en publiek debat
  • AI in parlementen en in de publieke sector
  • democratische controle en besturen van AI

AI in politieke campagnes en publiek debat

Politieke beïnvloeding

Er wordt op verschillende manieren geprobeerd om met AI het politieke debat te beïnvloeden, maar de angst hiervoor moet niet overdreven worden, stellen de EPTA-leden. Door AI gegenereerde inhoud circuleert doorgaans in gesloten chats en groepen op sociale media en is moeilijk op te sporen en te meten. Voorbeelden van politieke beïnvloeding zijn er uiteraard. Zo ging tijdens de Franse presidentsverkiezingen in 2022 een ‘nichtje’ van een van de kandidaten viraal op TikTok. Het werd ingezet om de politieke opvattingen van de betreffende kandidaat te normaliseren. Het “nichtje” bleek echter een geavanceerde, door AI gegenereerde deepfake. En in Denemarken plaatste de Deense Volkspartij een nepvideo van premier Mette Frederiksen, waarin zij voorstelde Kerstmis en Pasen af te schaffen en Id al-Fitr als enige officiële feestdag van Denemarken aan te merken.

Experimenten

Maar ook beleidsmakers experimenteren met AI om beleid te creëren en kiezers te bereiken. Het EPTA-rapport beschrijft hoe in verschillende landen geprobeerd AI in te zetten in de communicatie richting burgers. Zo gebruikt een Zwitsers parlementslid met een spraakstoornis spraaksynthese om video’s te verspreiden. En in Tokio trainde een kandidaat-gouverneur een door AI gegenereerde nieuwslezer haar gebaren en stem om zo verslag uit te brengen over haar beleid. Ook de Nederlandse BBB wordt genoemd die generatieve AI inzette om de essentie uit bijdragen van hun partijleider in de Tweede Kamer omzette naar hun partijprogramma voor de verkiezingen.

Zeven partijen in het Deense parlement spraken af geen deepfakes te creëren van politici zonder toestemming.

Aanpak desinformatie

Nederland stelt zich op het standpunt dat het niet aan de overheid is om desinformatie te etiketteren of te weerleggen. Ondertussen hebben landen als Spanje, Duitsland en Frankrijk wel aanvullende wetgeving ingevoerd die zich richt op specifieke aspecten van desinformatie en deepfakes. De Spaanse regering keurde in juni jl. een wetsontwerp goed waarin deepfakes die pornografisch of lasterlijk  gecriminaliseerd wordt. En in Frankrijk werd in mei de SREN-wet aangenomen die het gebruik van AI voor politieke berichtenuitwisseling gerichte reclamecampagnes reguleert.

Richtlijnen 

In diverse landen, waaronder Nederland, zijn richtlijnen ontwikkeld voor het gebruik van AI bij campagnes. In Denemarken gaan ze nog een stapje verder. Zeven partijen in het Deense parlement spraken af geen deepfakes te creëren van politici zonder toestemming en alle deepfakes ook als zodanig te bestempelen. Ook in Zwitserland kwamen verschillende partijen overeen dat alle vorm van gebruik van AI bekend gemaakt werd en af te zien van de inzet van deepfakes om partijen of kandidaten in diskrediet brengen. Helaas deden twee grote partijen hier niet aan mee.

AI in parlementen en in de publieke sector

Inzet generatieve AI

Het systematische gebruik van AI, inclusief generatieve AI, neemt toe. Systemen die toespraken in het parlement transcriberen bestaan ​​al in Noorwegen, Litouwen en Griekenland. En Zwitserland staat op het punt om live mondelinge AI-vertalingen in Italiaans, Frans en Duits van bijeenkomsten in de Nationale Raad van het parlement te implementeren. In Frankrijk is een taalmodel ontwikkeld voor parlement en regering dat (wijzigingen in) wetgeving samenvat en becommentarieert. Dit zou een enorme tijdsbesparing opleveren. De Deense overheid ontwikkelt een eigen taalmodel op basis van eigen data. Ook is in Microsoft Copilot generatieve AI geïntegreerd met het oog op toekomstige aanbestedingen voor digitale diensten.

Opstellen van richtlijnen

Een andere beleidsaanpak is het reguleren en begeleiden van de manier waarop AI wordt ontwikkeld. De Europese AI Act is hier een uitvloeisel van. Sommige grote gemeenten zijn hier op hun eigen manier mee bezig. Zo werkt de gemeenteraad van Barcelona aan een protocol dat definieert de mensenrechten gewaarborgd worden in elke fase van de aanbesteding en uitvoering van een algoritmisch systeem.

AI-taskforces om innovatie te versnellen

Verschillende regeringen richten interne AI-taskforces op om tot schaalbare innovatieve oplossingen te komen. In Litouwen is een GovTech Lab opgericht dat publieke instellingen ondersteunt bij het beoordelen van AI om maatschappelijke problemen op te lossen. Vervolgens nodigt het start-ups en bedrijven uit om deze oplossingen te ontwikkelen en te helpen deze te integreren in de diensten van de publieke sector. Ook Denemarken richtte een taskforce in om overheden te helpen met oplossingen om administratieve lasten te verminderen  en de eigen dienverlening te verbeteren met behulp van AI. Het Verenigd Koninkrijk kent een AI-incubator met 70 medewerkers die GenAI-toepassingen testen op administratieve gebieden, zoals het analyseren van inzendingen voor openbare hoorzittingen.

Democratische controle en besturen van AI

Bestuurlijke organisatie

EPTA-landen willen het AI-beleid naar een hoger politiek niveau tillen. Er komen ministers voor Digitale Zaken, speciale werkgroepen en zelfs AI-ministeries. Ook richten ze agentschappen en investeren steeds meer in eigen ‘computing power’ en binnenlandse AI-modellen.

Nederland kent een staatssecretaris voor Digitale Zaken en een Vaste Kamercommissie Digitale Zaken. Denemarken en Noorwegen hebben ministers van digitalisering. Frankrijk heeft als eerste een minister van AI. In Polen werd vorig jaar een parlementaire subcommissie AI en algoritmische transparantie ingesteld. In Litouwen richtte de Commissie voor de Toekomst van het parlement de Werkgroep AI op die behoeften, maar ook tekortkomingen in de bestaande wetgeving onder de aandacht te brengen.

In Duitsland zijn drie nieuwe federale agentschappen opgericht om AI-diensten en grote taalmodellen voor de publieke sector te ontwikkelen. Daarnaast hebben alle ministeries datalabs ingericht om veilig te kunnen werken,
gegevens opslaan en beheren en AI-tools ontwikkelen. Een Spaanse Agentschap voor toezicht op AI gaat ook de kansen en uitdagingen beoordelen en innovatie stimuleren.

Landen willen minder afhankelijk worden van buitenlandse aanbieders van cloud computing, dus wordt flink geïnvesteerd in 'supercomputers'.

Proeftuinen

Diverse landen richten proeftuinen in om te onderzoeken hoe AI-diensten in praktijksituaties uitwerken. Ook worden deze ingezet om innovatie te versnellen. Wetenschappers, ontwikkelaars, ethici en juristen worden samengebracht om na te denken over hoe AI ontworpen en gecontroleerd moet worden om aan veiligheidseisen en wetgeving te voldoen. Voorbeelden zijn het Britse AI Safety Institute, dat in november 2023 werd opgericht, en speciale AI-veiligheidsinstituten in de VS en Japan. In Portugal hebben ze ‘Free zones of Technology‘ ingericht waar nieuwe technologieën ontwikkeld en getest kunnen worden. Eén ervan richt zich bijvoorbeeld op innovatieve
mobiliteitsoplossingen om koolstofneutraliteit in steden te bereiken.

Expertgroepen en commissies

Landen richten adviesraden en commissies op om overheden over AI-beleidsvorming te informeren. Polen kent een adviesgroep  van AI-experts die het ministerie van Digitale Zaken adviseert over de wijze waarop de kwaliteit en de productiviteit van de publieke sector kan worden verbeterd met behulp van AI. Zweden wil een leidende rol krijgen in op het gebied van AI en heeft een commissie met leden vanuit zowel de particuliere, publieke als academische sector ingesteld om voorstellen te doen om het eigen concurrentievermogen te versterken.

Computing power

Landen willen minder afhankelijk worden van buitenlandse aanbieders van cloud computing, dus wordt flink geïnvesteerd in ‘supercomputers’. Ook de EU voert op dit punt actief beleid. Europa beheert en financiert momenteel negen van dergelijke supercomputers en is van plan meer start-ups en kleine en middelgrote ondernemingen hier toegang toe te bieden. Een Deens partnerschap, bestaande uit Export- en
Investeringsfonds NVIDIA en Novo Nordisk Foundation, gaat binnenkort Gefion oprichten. Dit moet een van de machtigste supercomputers ter wereld worden. En Microsoft gaat de komende tijd zo’n 3 miljard euro investeren in de cloud- en AI-infrastructuur in Zweden. Het EPTA-rapport meldt dat eind 2024 een supersnelle computer beschikbaar zal zijn op de onderzoeksinstelling Jülich in Duitsland.

Large language models

Veel landen ontwikkelen op dit moment eigen taalmodellen. Bovenop dergelijke modellen kan de publieke sector AI-diensten bouwen die nauwkeurig taalgebruik vereisen. Ook Nederland is hiermee bezig. In Polen zijn zes staats-onderzoeksinstellingen een Pools taalmodel aan het trainen dat eind dit jaar vrij te gebruiken is in Polen. Ook Spanje maakt flinke stappen met het ALIA-project. Dit wordt een taalfamilie-model bestaande uit taalgegevens van zowel Castiliaanse als co-officiële talen. De eerste toepassingen worden nog dit jaar verwacht.

Download HIER het Artificial Intelligence and Democracy, European Parliamentary Technology Assessment Network, Report 2024.

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren