De oplossing van de bestrijding van nepnieuws moet niet gezocht worden in het filteren van nieuws en het pamperen van burgers. Wat wél helpt is om burgers weerbaarder te maken.
De roep om nepnieuws te bestrijden klinkt steeds luider. Overheden in binnen- en buitenland willen nepnieuws aanpakken, Maar wat is nepnieuws eigenlijk en wat kan er bestreden worden op een open internet? We bekeken al eerder wat nepnieuws is en hoe factcheckers en social media proberen de fenomeen tegen te gaan. In dit vierde en laatste deel maken we de balans op: hoe kan nepnieuws bestreden worden en wie is daarvoor verantwoordelijk?
In het eerste deel van onze serie zagen we dat ‘nepnieuws’ gebruikt wordt als label om verschillende vormen van onjuiste berichtgeving aan te duiden. Van feitelijke onwaarheden, bewuste leugens en propaganda tot bediscussieerbare feiten en verschillende interpretaties van eenzelfde gebeurtenis. Het is belangrijk om deze vormen uit elkaar te houden en precies aan te geven welke vorm van nepnieuws bestreden moet worden. Eigenlijk zouden alleen bewust verspreide aantoonbare onwaarheden onder deze noemer moeten vallen.
In het tweede deel zagen we hoe factcheckers een rol spelen bij het identificeren van onjuiste berichtgeving. Echter, deze checks komen achteraf, vaak met een behoorlijke vertraging en er is sprake van een willekeur of ‘bias’ in wat er wel en niet gecheckt wordt. Nog belangrijker is dat al dit handmatige werk de snelheid en het volume van de berichtgeving niet kan bijhouden. Het is onbegonnen werk om alles te controleren en lijkt meer op een achterhoedegevecht van media die ooit grote controle hadden op de productie en verspreiding van nieuws.
Het automatisch filteren van onjuiste berichten door gebruik te maken van factcheckers en kunstmatige intelligentie, levert veel problemen op, zo zagen we in ons derde artikel. De algoritmes blijken niet goed om te kunnen gaan met nuances, polarisatie en satire. Kunstmatige intelligentie kan hooguit zeggen of het waarschijnlijk is dat een bericht onjuist is, maar geen keiharde uitspraak doen. In veel gevallen is er bovendien onvoldoende informatie beschikbaar om een betrouwbare inschatting te maken.
Ook het bijhouden van databanken met onbetrouwbare bronnen, zoals de Europese Commissie doet, levert veel fouten op: nieuwsmedia en berichten worden ten onrechte als ‘fake’ aangemerkt.
Het gevaar van censuur en moreel imperialisme
Het aanpakken van nepnieuws gaat mis wanneer er geprobeerd wordt om berichten op grote schaal uit te filteren. Dit filteren betekent feitelijk keiharde censuur: in plaats van onwaarheden in een open debat en discussie naar boven te laten komen, wordt dan van tevoren al informatie weggelaten: berichten worden verwijderd uit profielen, tijdlijnen en zoekresultaten.
De filters die daarbij gebruikt worden laten geen ruimte voor een open debat, voor nuance, voor verschil van inzichten en voor pluriformiteit. Het gevaar van censuur en van een moreel imperialisme dreigt, zeker als we zien hoe fanatiek Facebook en Amerikaanse politici kijken naar mogelijkheden voor filteren gebaseerd op Amerikaanse waarden over wat netjes is. Op dat moment wordt een grens overgegaan waarbij veel verworvenheden van een vrije democratie verloren gaan. Het middel wordt dan erger dan de kwaal.
Filteren staat haaks op een ontwikkeling waarbij burgers vrij informatie willen kunnen delen via sociale netwerken en waarbij nieuws steeds meer ‘live’ wordt gemaakt, terwijl het gebeurt. Hierbij wordt nieuws, ook door de gevestigde nieuwsmedia, steeds vaker achteraf en tijdens het verspreiden, gecheckt en kan de kijker, lezer of luisteraar meebeleven wat de uitkomst wordt.
Politici praten momenteel openlijk over filteren. Niet alleen in de Verenigde Staten, maar ook in Frankrijk, Engeland en Duitsland onderzoeken parlementen mogelijkheden om sociale platformen verantwoordelijk te maken voor de content die via hun netwerken wordt verspreid. Dit elders neerleggen van de verantwoordelijkheden lijkt vooral ingegeven door gemakzucht omdat de individuen en organisaties achter nepnieuws vaak ongrijpbaar zijn. Ook lijkt er sprake van aversie tegen de dominantie van Facebook, Google en Twitter.
Samen werken aan transparantie in berichtgeving
Er is dus geen ‘quick fix’ voor nepnieuws. Dat wil niet zeggen dat er helemaal niks gedaan kan worden. Er valt veel te winnen door journalistiek handwerk en het rapporteren door burgers te combineren met slimme algoritmen, zoals Facebook, Google en Twitter die aan het ontwikkelen zijn. Hiervoor is meer samenwerking nodig tussen alle betrokkenen: nieuwsmedia, factcheckers, sociale platformen, politici en burgers.
Algoritmen kunnen helpen inschatten of een bericht mogelijk onwaar of inconsistent is en ze kunnen accounts opsporen die bewust grote hoeveelheden informatie verspreiden. Informatielabels kunnen transparantie van nieuws vergroten door aan te geven wat de herkomst van een bericht is en of het bericht betwist of tegengesproken wordt.
Gebruikers kunnen bewuster worden gemaakt van hun eigen rol in de verspreiding, zoals Facebook via een pop-upmenu vraagt of een gebruiker een mogelijk fakebericht wel echt wil verspreiden. Gebruikers kunnen ook helpen dubieuze berichten te signaleren – een mogelijkheid die nu al geboden wordt door sociale platformen maar nog weinig door nieuwsmedia.
Het aanpakken van nepnieuws lijkt op deze manier het meest op hoe er ook met spam e-mails wordt omgegaan – ‘dit bericht kan spam zijn’. Het sluit bovendien het meest aan bij het sociale gedrag waarin mensen elkaar soms ook bewust onjuiste berichten (zoals roddels en broodje-aapverhalen) doorsturen, wetende dat een ontvanger wel weet of hij het bericht met een korrel zout moet nemen.
Nieuwsmedia en factcheckers zouden gerichtere journalistiek kunnen gaan bedrijven door gebruik te maken van de analyses met algoritmen die helpen inconsistente en tegenstrijdige berichtgeving te signaleren. Zij zouden toegevoegde waarde kunnen bieden door meerdere inzichten en opvattingen met elkaar te confronteren en de lezer te laten zien hoe het debat eruitziet. Later kunnen zij ook de uiteindelijke uitkomst – als er een eenduidige uitkomst of consensus ontstaat – weergeven zoals het 8-uurjournaal dat doet.
Het is essentieel dat de gebruikte labels en algoritmen transparant zijn en ter discussie mogen worden gesteld zodat deze ook kunnen worden bijgesteld. Zoals gezegd, de analyses zouden niet moeten leiden tot filtering, maar zich moeten beperken tot informeren en transparant maken. De algoritmes van Facebook, Google en Twitter zijn nu niet transparant. terwijl ze wel gebruikt worden om berichten in tijdlijnen en zoekresultaten te rangschikken.
Een ‘gezond’ debat
Twitter wil de kwaliteit van de discussie inzichtelijk gaan maken en wil daarbij gebruik gaan maken van de indicatoren voor ‘conversational health’, ontwikkeld bij MIT. Deze indicatoren voor een ‘gezonde discussie’ zijn: ‘gemeenschappelijke aandacht’ (Is er overlap in waar ze over praten? Praten ze over hetzelfde thema?), ‘gemeenschappelijke realiteit’ (gebruiken ze dezelfde feiten?), variety (zijn er meerdere meningen op grond van de voorgaande uitgangspunten) en staat men open voor nieuwe argumenten (receptivity).
Weerbare burgers
Labelen kan de verspreiding van nepnieuws remmen, maar het biedt geen garantie dat het wordt gestopt. Filteren betekent censureren en gaat ervan uit dat er een eenduidige beoordeling is te maken van de waarheid van een nieuwsbericht, wat vaak niet kan.
Dat brengt ons terug bij de vraag wie er verantwoordelijk is voor het bestrijden van nepnieuws. Bij een open en vrij internet hoort dat nieuws en informatie zich vrij kunnen verspreiden. Nieuwsmedia en platformen kunnen hun gebruikers helpen om relevante en betrouwbare informatie te vinden en ze een betrouwbare plaats bieden voor nieuws. Hieraan kunnen ze hun belangrijkste meerwaarde en bestaansrecht ontlenen. Ze zouden op een transparante manier moeten filteren en rangschikken, zodat gebruikers kunnen kiezen. Ze zouden niet verplicht moeten worden om nieuws te gaan filteren.
De oplossing van de bestrijding van nepnieuws moet niet gezocht worden in het filteren, maar in de pluriformiteit van media, die op transparante wijze informatie op verschillende manieren interpreteren, rangschikken en aanbieden.
In plaats van burgers te pamperen en ervoor te zorgen dat ze niet meer met ‘nepnieuws’ in aanraking komen, zouden nieuwsmedia en politici de burger meer moeten prikkelen en moeten helpen om weerbaar te worden, te leren omgaan met een dynamische wereld waarin nieuws voortdurend in ontwikkeling is en er altijd debat en discussie zal zijn. Dát levert een versterking op van de democratie.
Dit artikel is geschreven in samenwerking met Chris Aalberts. Samen schreven we ‘Veel gekwetter, weinig wol’, het eerste Nederlandse onderzoek naar het gebruik van sociale media door politici, overheden en burgers.
Maurits Kreijveld is futuroloog en adviseert onder meer overheden hoe zij het beste kunnen inspelen op nieuwe ontwikkelingen, zoals digitalisering en de netwerksamenleving.