Overslaan en naar de inhoud gaan
(advertentie)

AI-chatbots negeren lokale partijen in hun stemadviezen

Verkiezingsposters in Den Haag
Robin Utrecht/ ANP

AI-chatbots sluiten lokale politieke partijen uit wanneer gebruikers vragen op welke partij zij moeten stemmen bij de gemeenteraadsverkiezingen. Dat blijkt uit onderzoek van de Autoriteit Persoonsgegevens (AP). Hoewel lokale partijen bij de vorige gemeenteraadsverkiezingen ruim dertig procent van de stemmen haalden, gaf een chatbot in minder dan één procent van de stemadviezen een lokale partij als eerste keus.

Dat komt volgens de AP mogelijk omdat chatbots vooral zijn getraind met grote hoeveelheden data van het internet. Lokale politieke partijen komen daarin relatief weinig voor. Bovendien is informatie over deze partijen vaak minder uitgebreid of minder actueel dan informatie over landelijke partijen.

Onbetrouwbaar

‘AI-chatbots zijn onbetrouwbaar en geven een vertekend beeld van het politieke landschap. Wanneer lokale partijen nauwelijks in stemadviezen voorkomen, krijgen kiezers geen goed beeld van wat zij kunnen kiezen’, aldus AP-voorzitter Aleid Wolfsen. Hij overhandigde donderdag het onderzoeksrapport aan minister Heerma (Binnenlandse Zaken en Koninkrijksrelaties, CDA).

Voor het onderzoek testte de AP de chatbots ChatGPT, Claude, Gemini, Grok en Mistral. Drie van de vijf chatbots gaven vrijwel altijd stemadvies wanneer gebruikers daar expliciet om vroegen, vaak met een duidelijke voorkeur voor één partij. Soms gaven chatbots eerst aan onvoldoende informatie te hebben om stemadvies te geven. Nadat ze toegang kregen tot internet om informatie op te zoeken, deden ze het alsnog. In zeven procent van de gevallen gaven ze geen advies. 

Vertekend beeld

In de aanloop naar de Tweede Kamerverkiezingen in 2025 deed de AP ook al onderzoek naar stemadviezen van AI-chatbots. Toen concludeerde de privacywaakhond dat ChatGPT en consorten een sterk vertekend en gepolariseerd beeld geven van de politiek. Net als toen is de conclusie opnieuw dat AI-chatbots niet geschikt zijn als stemhulp.

De AP roept aanbieders van AI-chatbots opnieuw op maatregelen te nemen om te voorkomen dat hun systemen te gebruiken zijn voor stemadvies. Onder de Europese AI-verordening worden AI-systemen die bedoeld zijn om stemgedrag te beïnvloeden aangemerkt als ‘hoogrisicosystemen’, waarvoor zeer strenge regels gelden.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Vincent Hoek | 15 maart 2026, 15:03

Interessant vraagstuk. De genoemde AI platforms gooien 'het net' breed uit, dus niet zo gek dat er vooral bagger in zit. Tijd om hier een breed filosofisch debat over te voeren, want dit vraagstuk gaat wel wat verder dan een AP aanwijzing. Evgeny Morozov bijvoorbeeld, een Wit-Russische criticus van technologisch determinisme, zou dit probleem kaderen binnen het bredere idee van "technologisch oplossingisme" – onze neiging om complexe maatschappelijke problemen op te lossen met technologie, zonder de structurele onderliggende oorzaken te adresseren. Morozov zou wijzen op het feit dat AI-chatbots afhankelijk zijn van datasets die inherent gebiased zijn. Grote datasets, vaak afkomstig van internet, zijn dus sowieso disproportioneel gevuld met informatie over landelijke partijen, terwijl lokale partijen minder goed vertegenwoordigd zijn. Dit is GEEN technisch probleem, maar een symptoom van de bredere maatschappelijke bias waarin lokale politiek nu eenmaal minder zichtbaarheid krijgt. Door deze bias versterken AI-chatbots bestaande machtsstructuren, waarbij landelijke partijen domineren en lokale partijen systematisch worden uitgesloten en zo ondermijnt de beperking van de diversiteit van politieke keuzes het democratische proces.
Je zou eigenlijk al bij de prompt moeten aangeven: "niet handig voor dit vraagstuk".
Wat meteen onderstreept dat de meeste mensen AI nog steeds gebruiken voor Booleaanse vragen, alsof ze een Google Search doen, terwijl AI toch écht anders werkt.
De AP zou ook tegen de burger kunnen zeggen: wees niet zo intellectueel lui!
In plaats van kiezers actief te informeren via traditionele kanalen, wordt het probleem van politieke educatie nu verplaatst naar AI-systemen, die de complexiteit van lokale politiek helemaal niet kunnen vatten, als je ze daar niet specifiek op traint.
Heeft ongeveer de logica van je teen stoten tegen de deur: "Stomme deur!!"
AI-chatbots opereren binnen een centraliserend technologisch ecosysteem dat de voorkeur geeft aan dominante narratieven en grote, goed georganiseerde partijen.
Lokale partijen, die vaak gedecentraliseerd zijn en minder middelen hebben om hun informatie te verspreiden, worden daardoor automatisch benadeeld, want er is nou eenmaal minder online informatie over te vinden. AI versterkt bestaande sociale en politieke hiërarchieën door bepaalde opties meer zichtbaarheid te geven dan andere.
De filosofe Hannah Arendt benadrukte het belang van publieke ruimtes waarin pluralisme en debat centraal staan. AI-chatbots die lokale partijen uitsluiten, ondermijnen deze pluraliteit door een te beperkt beeld van het politieke landschap te geven, dus waarom trainen we geen specifieke bot op alle politieke uitingen? Sowieso is het niet slim om het politieke domein (de agora) te automatiseren, waarin AI de rol van menselijke interpretatie en discussie vervangt. Politieke keuzes moeten juist voortkomen uit informele, menselijke interactie; niet uit algoritmische berekeningen.
De ethicus Luciano Floridi zou stellen dat de bias in AI-systemen een fundamenteel ethisch probleem is. Het feit dat lokale partijen systematisch worden uitgesloten wijst op een gebrek aan representatieve data en een gebrek aan ethische ontwerpprincipes.
Als AI systemen onvoldoende zijn uitgerust om stemadvies te geven, moeten ze dat duidelijk communiceren om misleiding te voorkomen; een disclaimer dus.
Een mediafilosoof als Neil Postman zou waarschuwen voor de reductie van complexe processen tot oppervlakkige interacties. Door politieke keuzes te reduceren tot een eenvoudige chatbot-interactie, wordt het belang van diepgaande politieke educatie en kritisch denken ondermijnd. Democratie is tenslotte niets meer dan een procedure voor geweldloze machtsoverdracht. Tijdens een verkiezing meten we hoe je je voelt, niet wat je vindt. Juist AI-chatbots dragen bij aan een cultuur van lamlendige oppervlakkigheid, waarin complexe politieke processen worden versimpeld. Zoals je ook zeker kunt lezen op wappie threads. Stemadvies moet voortkomen uit menselijke interacties en dialoog, niet uit technologische systemen die deze processen vervangen.
Dit vraagstuk heeft niet alleen technologische, maar ook filosofische en ethische dimensies en er is dus een holistische benadering nodig om de impact van AI op democratie en institutioneel vertrouwen effectief te beheren.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in