Desinformatie en platformen: onbegonnen werk?
Onlangs is de Digital Service Act (DSA) in werking getreden. Deze wet heeft als doel om “een veiligere digitale ruimte te creëren waar de grondrechten van gebruikers worden beschermd en een gelijk speelveld voor bedrijven tot stand te brengen.” Een mooie ambitie, maar ik begin steeds meer te twijfelen of de aanvliegroute voor het bestrijden van desinformatie de juiste is en vraag mij af of we in plaats van symptoom bestrijden ons niet beter kunnen richten tot de kern van het probleem.
Onder de DSA moeten social media platformen (onder andere) optreden tegen het verspreiden van illegale content en desinformatie en tegelijkertijd transparant zijn over het verwijderen van de inhoud. Bij illegale content is in veel gevallen duidelijk wat hier onder valt (kinderporno, inbreuken op auteursrechten en discriminerende berichten), al zal hier zeker ook de nodige discussie over het ont- en bestaan. Bij desinformatie, iets dat we nu zien in het verschrikkelijke conflict in Israël en Gaza, is het al een stuk lastiger. De grote vraag: wat is desinformatie en wie bepaalt wat dit wel en wat dit niet is? En dat ook nog eens op een schaal die ongekend is. En waar ligt de grens tussen desinformatie en de vrijheid van meningsuiting? Regels lijken te ontbreken.
Dit kan ertoe leiden dat platformen zich niet aan de regels houden, of in ieder geval dat de buitenwereld van mening is dat dit het geval is. Zo waarschuwde de EU de afgelopen week al X (voorheen Twitter) via een bericht op X (geen idee waarom dit deze communicatie nu weer via een online platform moet) dat het zich aan de DSA moest houden. Ook Meta en TikTok werden op het matje geroepen.
Als reactie hierop kunnen platformen weer de andere kant op schieten en met ‘behulp’ van algoritmes alles dat maar verdacht lijkt de kop indrukken. Hiervoor wordt regelmatig een techniek gebruikt die ‘shadow banning’ wordt genoemd. Oftewel: het ontnemen van de megafoon en het bereik en de vindbaarheid van accounts die als ‘verdacht’ worden aangemerkt tot nagenoeg nul reduceren. In het stuk ‘Sociale media zetten prominenten stilletjes in schaduw bij uitingen over beladen onderwerpen’ in De Volkskrant lees je hier meer over.
In dit Volkskrant stuk wordt ook ingegaan op de algoritmen: “Ook zijn algoritmen zelf niet neutraal: ze zijn geschreven door mensen, hun beslissingen en overtuigingen bepalen wat een algoritme wel of niet als controversieel moet aanmerken. Zo groeit op sociale media de kritiek dat posts over de Palestijnse gebieden automatisch controversieel zijn; Meta zou als Amerikaans bedrijf volgens sommige gebruikers de kant van Israël kiezen.”
Freedom of speech vs freedom of reach?
Het is duidelijk: het weren van desinformatie is een complex probleem. Een probleem waarbij ik mij steeds meer afvraag of de oplossingen waar nu naar gezocht worden niet oplossingen zijn die de kern van het probleem negeren. En dat is dat misschien niet zozeer de desinformatie, maar de mate waarop desinformatie (gedreven door de aandacht vretende algoritmes en de manier waarop platformen verdienen op het vasthouden van de aandacht van de gebruiker) versterkt wordt en een groot publiek bereikt het grote probleem is.
Er wordt vaker gesproken over het fenomeen “freedom of speech vs freedom of reach”. Iedereen heeft recht op vrijheid van meningsuiting, maar dat zegt niet dat je het recht hebt op een algoritmische megafoon om een miljoenenpubliek te bereiken. Misschien (en er zullen hier ook vast weer veel mitsen en maren aan kleven) is de oplossing dan eerder door beperkingen op te leggen aan die megafoon. Zomaar een idee (en ik ben hier zeker niet de eerste mee, maar het probleem wordt deze maand wel erg duidelijk zichtbaar) om de zaak eens van de andere kant te bekijken. Geen populaire uitspraak vermoed ik voor platformbedrijven die hiermee de pijn zullen voelen in hun verdienmodel, maar uiteindelijk is iedereen op zoek naar een duurzame toekomst in het gebruik van platformen en nog meer: een leefbare wereld.
De grens tussen desinformatie en de vrijheid van meningsuiting is een functie van datakwaliteit (ISO 8000 bv) en context verificatie. Als de Premier iets zegt om 10.23u in de Kamer, is het niet logisch dat er een seconde later 350.000 reacties zijn. Je kunt gewoon meten en daarna transparant maken dat een hoop daarvan afkomstig zijn van IP-accounts die nog maar een paar uur oud zijn en geïnitieerd zijn vanuit een andere tijdzone.
Er zit ook verschil tussen misinformatie en disinformatie.
Misinformatie verwijst naar onjuiste of misleidende informatie die wordt verspreid, ongeacht of er opzet in het spel is. Mensen maken nu eenmaal fouten, zoals het verkeerd begrijpen of verkeerd delen van informatie. Je kan mensen niet ontzeggen verminderd opgeleid te zijn of er achterlijke ideeën op nahouden (dat valt onder Vrijheid van Meningsuiting), maar je kan bijgeloof en andere niet intersubjectief verifieerbare claims op de werkelijkheid (aka ‘feiten’) wel meten en bijbuigen.
Desinformatie daarentegen is het bewust verspreiden van valse of misleidende informatie met de bedoeling om te bedriegen of om zelfs Fear Uncertainty en Doubt (FUD) te zaaien. Een samenleving in verwarring is een besluiteloze samenleving. Dit is daarom vaak een tactiek die wordt gebruikt in politieke propaganda, marketing, of andere gebieden waar manipulatie van publieke opinie belangrijk is. De bron ligt doorgaans bij een klein groepje influencers (Troll Factories) en ook die kun je meten.
Die trollen werken voor entiteiten die niet bepaald het beste met de Open Samenleving voor hebben, dus daar zijn wij gewoon in oorlog mee. De DSA draagt domweg bij aan de Nationale Veiligheid.
De DSA beschrijft zelf al de maatregelen, maar je zou die prima uit kunnen breiden met:
1. Media-educatie: Investeer mede in media-geletterdheid, zodat klanten online informatie kritisch kunnen evalueren. Noem het Maatschappelijk Verantwoord Ondernemen.
2. Fact-checking: Draag bij aan fact-checking om de juistheid van informatie te verifiëren, door in te zetten op hoogwaardige datakwaliteit (ISO 8000, FAIR Principles etc.) en terug te koppelen naar klanten als die data niet correct zijn. Kan uitstekend geregeld binnen http://www.internationaldataspaces.org door via http://www.ishare.eu gebruikers onderling te identificeren en van elkaars data kwaliteit bewust te maken.
3. Transparantie van algoritmes: Wees transparant over de bedrijfspraktijken en de gebruikte algoritmen, zodat mensen begrijpen hoe informatie wordt gefilterd en gepresenteerd.
4. Regulering: kom met een eigen beroepscode hoe desinformatie wordt aangepakt, bijvoorbeeld door degenen die bewust valse informatie verspreiden openbaar te maken.
Botnets veroorzaken niet alleen een hoop traffic, maar ook imago verlies. Het transparant maken van adverteerders (betaald of gesponsord?) hoort al bij de DSA.
5. Verantwoordelijkheid van platformen: werk actief mee aan het identificeren en verwijderen van desinformatie.
6. Publieke bewustwording: Informeer het Publiek ook zelf over het probleem van desinformatie en help hen uitrusten met de vaardigheden om het te herkennen.
Er is toch al een mega-tekort aan Data Scientists.
7. Kritisch denken: Het stimuleren van kritisch denken is essentieel; mensen moeten worden aangemoedigd om bronnen te controleren, andere perspectieven te overwegen en de mogelijkheid van vooringenomenheid te erkennen. Publiceer bijvoorbeeld spreidingsgegevens van ideeën in real-time met ML-modellen, op regels gebaseerde waarschuwing, patroonherkenning en geautomatiseerde detectie van multi-source anomalie. Je kunt de bull-shit gewoon visualiseren zonder bronvermelding.
Zie de DSA niet als extra last, maar als hulpmiddel voor het creëren van een veiliger, transparanter en eerlijker online ecosysteem.