In de strijd tegen nepnieuws zetten Facebook, Google en Twitter onder meer kunstmatige intelligentie en algoritmes in. Maar het is nog niet de door velen gehoopte oplossing.
De roep om nepnieuws te bestrijden klinkt steeds luider. Overheden in binnen- en buitenland willen nepnieuws aanpakken, Maar wat is nepnieuws eigenlijk en wat kan er bestreden worden op een open internet? We keken eerder wat nepnieuws is en hoe factcheckers proberen het tegen te gaan. In dit derde deel bekijken we de geautomatiseerde vormen om nepnieuws te bestrijden die onder andere ingezet worden door Facebook, Google en Twitter.
Eind vorig jaar hebben Facebook, Google en Twitter aangegeven dat ze gaan werken met zogeheten ‘trust indicators’ om consumenten te helpen de betrouwbaarheid van publicaties en journalisten in hun tijdlijnen beter in te schatten. Daarnaast gaan ze onderling kennis delen en een gezamenlijke database bijhouden van nepnieuws-artikelen en van onbetrouwbare verspreiders.
Bij een artikel in de tijdlijn van Google (News en Search), Facebook (tijdlijn) en Twitter (tijdlijn) verschijnt een icoontje waaraan je kunt zien wie de bron ervan is en of het een reclame betreft of niet. Door hierop te klikken, verschijnt de Wikipedia-informatie van deze bron zodat lezers zich kunnen informeren. De lezer kan dan zelf een inschatting maken van de betrouwbaarheid.
De gebruikte indicatoren zijn ontwikkeld door het Trust Project van het Santa Clara Institute of Applied Ethics. Amerikaanse partners zijn de New York Times, Washington Post en USA Today Network. Europese partners zijn onder andere de BBC, The Economist, DPA en La Repubblica.
Het ergste nepnieuws bestrijden
Facebook werkt sinds 2017 in diverse landen samen met de belangrijkste factcheckers, die zich houden aan de internationale ‘code of principles’. We bespraken enkelen ervan in deel 2 van deze serie. Facebook richt zich in eerste instantie op ‘het ergste nepnieuws’: bewust onjuiste berichten die opzettelijk verspreid worden om te misleiden, te spammen of er financieel beter van te worden. Facebook richt zich dus niet meteen op vermeende uitspraken van politici en de interpretatie ervan, het wil uit de voortdurende discussie blijven die dat oplevert.
Krijgt een artikel de beoordeling ‘niet waar’ van één factchecker, dan wordt het minder gepromoot in News Feeds. Zodra ten minste twee factcheckers een bericht als onwaar bestempelen, krijgt een gebruiker een boodschap bij het artikel te zien dat het bericht “In twijfel getrokken wordt door externe feitencheckers”. Door hierop te klikken kan de gebruiker meer te komen worden over wie het artikel in twijfel trekt en waarom. Factcheckers kunnen een toelichting geven bij hun beoordeeling.
Momenteel duurt het zo’n drie dagen voordat een artikel zo’n label krijgt. Voor nieuws is dit nog veel te langzaam: hoaxes verspreiden zich in de eerste uren het snelste. Facebook probeert dit proces daarom te versnellen.
Gebruikers kunnen zelf ook berichten aanmelden als mogelijk nepnieuws. Facebook maakt hiervan een overzicht dat ze deelt met de factcheckers die dan gericht aan de slag kunnen. In Nederland werkt Facebook onder meer samen met Nieuwscheckers van de Universiteit Leiden (zie deel 2).
Effectiviteit wordt betwist
Artikelen die in twijfel getrokken worden, worden door Facebook lager geplaatst op de lijst artikelen die in de News Feeds van andere gebruikers verschijnen. Deze krijgen, als ze zo’n twijfelachtig artikel willen delen in hun netwerk, een pop-up te zien met de vraag of ze dit echt willen. Facebook beweert dat dit alles ervoor zorgt dat zo’n artikel tachtig procent minder verspreid wordt.
Verschillende media betwijfelen of dit percentage zo hoog is omdat veel artikelen (of varianten van deze berichten) in omloop blijken te blijven, ondanks dat ze overduidelijk als nepnieuws zijn aangemerkt. Gebruikers blijken zich weinig aan te trekken van de notificaties omdat ze vinden dat hun vrienden het sowieso moeten weten of omdat ze, in geval van een politieke strijd, willen blijven volharden in hun eigen gelijk.
Satiremakers zijn juist blij met de weinig effectiviteit: hun bewust onware artikelen – denk in Nederland aan een sites als De Speld – worden via het systeem van factchecking als nep aangemerkt.
Kunstmatige intelligentie en slimme algoritmen
Tegelijk met de samenwerking met de factcheckers zetten de grote sociale netwerken ook in op de ontwikkeling van slimme algoritmen om nepnieuws te herkennen. Zo kan er inzicht gekregen worden in hoe nieuws verspreid wordt, via welke accounts en via welke knooppunten in sociale netwerken. Hiermee kunnen ze volgen hoe een discussie zich dynamisch ontwikkelt en daar gericht op ingrijpen als er bijvoorbeeld heel veel accounts tegelijk spam versturen, of als tijdlijnen dreigen te worden overspoeld. Twitter, dat vergeleken met Google en Facebook het meest gevoelig is, bepaalt op basis van patroonherkenning of het (potentiële nep)accounts of het ‘retweeten’ van berichten tijdelijk bevriest.
Met kunstmatige intelligentie kunnen ook patronen gevonden worden in nieuwsberichten en kan de consistentie ervan vastgesteld worden. Google is met zijn zoekmachine Search en nieuwsaggregator Google News een belangrijke speler. Google’s zoekmachine is gebaseerd op een uiterst geavanceerd algoritme dat uit vele informatiebronnen informatie destilleert, kijkt naar kruisverbanden en doorverwijzingen tussen websites en rekening houdend met (lees: corrigeert voor) echo-putten, marketeers (SEO) en reputatie van bronnen. Je zou Google’s zoekmachine de ‘wisdom of crowds’ kunnen noemen: hij zoekt naar een grootste gemene deler en consistentie in de informatie.
Daarnaast heeft Google een databank aangelegd vol feitelijke, wetenschappelijke en encyclopedische informatie: de Google Knowledge Vault. Hiermee kan het informatie op waarheid checken, zoals de omvang van de aarde of de snelheid van het licht. Een bericht over sneeuw in Israël zou dan aangemerkt kunnen worden als ‘onwaarschijnlijk’, gelet op het klimaat of seizoen.
Polarisatie van het debat vernietigt de ‘wisdom of crowds’
Google’s algoritme zoekt naar consensus tussen de informatie uit verschillende bronnen. Dat wordt lastig als er twee tegenovergestelde ‘waarheden’ zijn die allebei even fanatiek gepromoot worden in een netwerk van personen en nieuwssites.
Google meldde dat het hier last van had tijdens de Amerikaanse presidentsverkiezingen in 2017. Er waren twee kampen van Trump en Clinton met een hecht netwerk van ‘incrowd’ die voortdurend elkaar versterken, herhalen en zich afzetten tegen het andere kamp. In Nederland kunnen we denken aan de recente discussie over vermeend racisme binnen Forum voor Democratie (FvD). Ook hier is een zeer gepolariseerd debat tussen bronnen die zeker zeggen te weten dat FvD racistisch is, maar er is ook een grote FvD-aanhang die alle aantijgingen met veel nadruk ontkent.
Eric Schmidt (voormalig topman van Alphabet, eigenaar van onder meer Google) gaf in een interview in 2017 aan dat het bedrijf niet al te positief is over de mogelijkheden om met kunstmatige intelligentie slechte berichtgeving tegen te houden.
Kunstmatige intelligentie als heilige graal?
De Nederlandse startup NWZER is hier positiever over. Dit bedrijf gebruikt kunstmatige intelligentie om de betrouwbaarheid van een bericht in te schatten, door net als Google te kijken naar consensus in berichtgeving. Wanneer meerdere bronnen over eenzelfde feit berichten, is de kans groot dat dit bericht waar is. De software kijkt naar consistentie in berichtgeving en kan dankzij de kunstmatige intelligentie ook gegevens uit verschillende bronnen vergelijken. Onjuiste informatie valt dus eerder door de mand. De software van NWZER is in eerste instantie ontwikkeld om informatie uit meerdere bronnen te synthetiseren en samenvoegen tot één geheel.
Het Groningse Trust The Source ontwikkelt een automatische Nederlandstalige online factchecker. Door op zoek te gaan naar de bron, en verbanden te leggen tussen taalgebruik, locatie en andere kenmerken wordt een inschatting gemaakt van de betrouwbaarheid van een tweet. Een tweet in de ‘ik’-vorm door iemand vlakbij de plaats van een incident, heeft een hoge betrouwbaarheid. In de toekomst zal ook gekeken worden naar de foto’s en video’s in de tweets. De tool kan journalisten helpen in hun speurwerk.
De toegevoegde waarde van kunstmatige intelligentie zit vooral in het opsporen van inconsistente informatie en van de bewuste verspreiding. Een harde uitspraak doen, zoals de factcheckers, is meestal een brug te ver. Dit komt omdat het vrijwel onmogelijk is om over alle informatie te beschikken voor het vellen van een sluitend oordeel. Een bericht kan onwaarschijnlijk zijn, maar toch waar blijken te zijn.
Het automatisch filteren van berichten blijft problematisch. Er zijn al incidenten geweest waarbij een artikel ten onrechte nep werd genoemd en ten onrechte werd verwijderd. Er blijft dan ook actie nodig, zoals het controleren van berichten door observaties ter plekke, van experts of door meerdere betrokken personen te raadplegen. Kunstmatige intelligentie zou daarom een goed hulpmiddel kunnen zijn voor onderzoeksjournalisten en factcheckers, maar is voorlopig nog geen vervanger ervan.
Filteren of censureren?
Google, Facebook en Twitter gebruiken voortdurend algoritmes om te bepalen in welke volgorde en op welke manier we nieuws in onze tijdlijnen te zien krijgen. Door hun strijd tegen nepnieuws komen daar nu nieuwe criteria bij. Berichten die onwaarschijnlijk lijken te zijn, krijgen sneller een lage ranking in tijdlijnen en zoekresultaten. Daarmee filteren de platformen nog meer en worden ze nog sturender in de informatie die ze ons aanbieden. Is het nog transparant te maken hoe er gefilterd wordt, zodat we als gebruikers weten waar we aan toe zijn en hebben we daar zelf ook nog controle op?
Het automatiseren van nepnieuwsbestrijding is interessant, maar leidt tegelijkertijd tot meer filtering van informatie en systemen die beslissen. Menselijke controle, nuance en satire, debat en kritische journalistiek ontbreken daarin. De berichtgeving van de Volkskrant over de leugen van Halbe Zijlstra begon met een vermoeden op basis van onwaarschijnlijkheid, maar kon pas worden hardgemaakt na gedegen journalistiek werk. Kunstmatige intelligentie mag dan een van de meest veelbelovende technologieën zijn van deze eeuw, het is nog niet de door velen gehoopte oplossing voor nepnieuws.
Nu we weten hoe veelkoppig nepnieuws is en wat de mogelijkheden en beperkingen zijn van factcheckers en slimme algoritmen, is het tijd de balans op te maken. Dit doen we in het vierde en laatste deel van deze serie over nepnieuws.
Dit artikel is geschreven in samenwerking met Chris Aalberts
Maurits Kreijveld is futuroloog en adviseert onder meer overheden hoe zij het beste kunnen inspelen op nieuwe ontwikkelingen, zoals digitalisering en de netwerksamenleving.