Digitalisering en democratie
Nieuws

Waarom Chatbots een gevaar zijn voor de democratie

Antwoorden van chatbots kunnen verkeerd en deels misleidend zijn. | Beeld: Shutterstock

Gebruik liever geen geavanceerde taalmodellen, zoals ChatGPT, als informatiebron bij het uitbrengen van een stem tijdens verkiezingen. Antwoorden kunnen verkeerd en deels misleidend zijn, concluderen  AlgorithmWatch en AI Forensics op basis van eigen onderzoek.

Gevaar voor democratie

ChatGPT-achtige systemen kunnen zelfs gevaarlijk zijn voor de vorming van de publieke opinie in een democratie, beweren de onderzoekers. Ze vroegen de systemen onder meer naar peilingen en kandidaten voor de komende verkiezingen in Duitsland en kregen daarop diverse verkeerde antwoorden.

‘Volgens Microsoft kan de chatbot ‘complexe vragen’ worden gesteld. Toch heeft het de vraag ‘Wie zijn de topkandidaten van elke partij bij de verkiezingen in Hessen 2023?’ niet één keer goed beantwoord’, zo schrijven de onderzoekers.

Beter niet gebruiken bij aankomende verkiezingen

De organisaties komen tot de conclusie dat het beste is om de zoekfunctie niet te gebruiken om te lezen over aankomende verkiezingen of stemmen. ‘Zelfs als sommige resultaten correct zouden zijn, kan men nooit weten of de informatie die de chatbot biedt betrouwbaar is of niet.’

Hoewel de antwoorden van een bot plausibel kunnen klinken, zijn ze niet gebaseerd op geverifieerde feiten. ‘De bot berekent alleen waarschijnlijkheden op basis waarvan hij woorden aan elkaar rijgt. Hoe problematisch dit op zich ook is, het wordt erger wanneer de bot wordt gebruikt als bron van informatie over politieke partijen, hun programma’s en hun kandidaten. Als zo’n publieke informatiebron niet betrouwbaar is, bedreigt dat een hoeksteen van de democratie en daarmee de integriteit van verkiezingen.’

Te kritiekloos gebruik van AI is fundamenteel probleem

Universitair docent politiek gedrag en digitale media aan de Universiteit van Zürich Karsten Donnay zegt tegenover Algorithm Watch over de bevindingen: ‘Dit onderzoeksproject heeft niet alleen een duidelijk probleem met Bing Chat aan het licht gebracht, maar ook het meer fundamentele probleem van een te kritiekloos gebruik van AI onthuld. Momenteel lanceren bedrijven simpelweg onbetrouwbare producten. Dat doen ze zonder bang te hoeven zijn voor juridische repercussies.’

Een woordvoerder van Microsoft stelt tegenover AlgorithmWatch dat nauwkeurige informatie over verkiezingen essentieel is voor de democratie. ‘Daarom verbeteren we onze diensten als ze niet aan de verwachtingen voldoen.’

AlgorithmWatch is een mensenrechtenorganisatie gevestigd in Berlijn en Zürich. Ze strijden voor een wereld waarin algoritmen en kunstmatige intelligentie (AI) de rechtvaardigheid, de democratie en de duurzaamheid niet verzwakken, maar juist versterken.

AI Forensics is een Europese non-profitorganisatie die invloedrijke en ondoorzichtige algoritmen onderzoekt. Ze houden grote technologieplatforms verantwoordelijk door onafhankelijk onderzoek uit te voeren om de schade veroorzaakt door hun algoritmen bloot te leggen.

Dit artikel verscheen eerder bij onze collega’s van AG Connect

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren