2020 was het jaar van de digitale corona-oplossingen. Terwijl het leven tot stilstand kwam, denderden we via onze digitale snelweg door. Online waren we tenminste nog ‘alone together’. "Hoe voorkomen we dat mensen hun eigen on- en offline ervaringen verheffen tot de enige relevante waarheid?"
Met Zoom, Teams en Skype konden we op veilige afstand vergaderen, met dashboards en apps probeerden we het virus te temmen en met telezorg konden hulpverleners op afstand zorg verlenen. Maar online waren we ook beperkt, merkten we toen de videoconferencing fatigue begon toe te slaan. Misschien zou 2020 daarom ook wel eens het jaar van de digitale ontnuchtering kunnen worden. De belofte dat we al onze activiteiten naar de online wereld kunnen verplaatsen, was nog nooit zo dichtbij en tegelijkertijd zo ver weg.
Docenten en studenten kwamen in opstand tegen het online onderwijs. Digitale colleges bleken prima geschikt voor informatie-overdacht, maar om menselijke ontwikkeling te stimuleren is meer nodig dan een goede internetverbinding. Ook werknemers kwamen in opstand. Ondanks het groeiende aanbod in vergaderprogramma’s – van virtual reality rooms tot videogames – missen steeds meer thuiswerkers het face-to-face contact. Elkaar ongepixeld in de ogen kijken, het praatje bij de koffiemachine en de spontane ontmoeting in de wandelgang; de doelgerichte efficiëntie van de online wereld heeft een keerzijde. We missen de ondoelmatige interacties waar de briljantste ideeën uit voort kunnen komen.
Naast beperkt, blijken we online ook kwetsbaar. Doordat we nog meer vergroeid zijn met onze beeldschermen, kunnen werkgevers en bedrijven ons overal volgen. De verkoop van software voor het monitoren van werknemers is tijdens de coronacrisis verdrievoudigd. Denk aan programma’s die bijhouden wat jij op je op je laptop doet en gezichtherkenningtechnologie om te controleren of je wel oplet.
Ook de overheid ging meer digitaal surveilleren. Zo bleek Defensie grote hoeveelheden data te verzamelen over coronabesmettingen, vervoersbewegingen, social-mediagedrag en bedrijfsfaillissementen. Als je maar genoeg data aan elkaar koppelt en analyseert met algoritmen, kunnen maatschappelijke onrust, rampen en criminaliteit voorspeld worden, zo luidt de belofte. Maar het wetenschappelijke bewijs daarvoor ontbreekt. Gedragspatronen uit het verleden blijken geen garantie te bieden voor de toekomst. Bij het zoeken naar patronen in data komen correlaties naar voren die ten onrechte worden aangezien voor een causaal verband. Bovendien zijn niet alle factoren die bijdragen aan een escalatie voorspelbaar en dataficeerbaar. Dit kan leiden tot vals positieven: in de data is onterecht samenhang aangetroffen, of vals negatieven: in de data is onterecht geen samenhang aangetroffen. Dat we massa-surveillance moeten accepteren in ruil voor optimale veiligheid en gezondheid is daarom een valse voorstelling van zaken.
Verscheurd door desinformatie
In 2020 werden we niet alleen kwetsbaarder voor inbreuk op onze privacy, maar ook voor inbreuk op onze informatievoorziening. De meest wilde corona-complottheorieën vonden online hun vermenigvuldiging. Afgelopen september luidde de World Health Organization de noodklok: er is sprake van een infodemic. Complotaanhangers en actiegroepen verspreiden verkeerde informatie over corona om hun eigen agenda te bevorderen. Naast schade voor de volksgezondheid, leidt desinformatie tot maatschappelijke polarisering. Niet alleen op persoonlijk niveau: families raken verscheurd door corona-complottheorieën, maar ook op geopolitiek niveau: machtsblokken, zoals Rusland en China, proberen elkaars politieke discussies te manipuleren door desinformatie te verspreiden. Momenteel dreigt een complotwedloop rondom corona-vaccinaties.
Volgens Aviv Ovadya, Chief Technologist bij Center for Social Media Responsibility, hebben we niet alleen te kampen met een infodemic maar dreigt er een algehele ‘’infocalypse’’ te ontstaan: een crisis van misinformatie waarbij we ons continu moeten afvragen of iets waar of onwaar is, gemanipuleerd of authentiek.
Deepfakestechnologie waarmee je mensen dingen kunt laten zeggen en doen die ze niet hebben gezegd of gedaan hebben dit jaar een vlucht genomen. De beeldkwaliteit van deepfakes is beter geworden, de spraaktechnologie is vooruit gegaan en met gratis apps kun je in een handomdraai een deepfake maken. Zo kan iedereen jouw stem en foto gebruiken om te manipuleren. Daarnaast is de productie en verspreiding van nepnieuws geavanceerder geworden. Bijvoorbeeld door nepaccounts met computer-gegenereerde profielfoto’s die in verschillende talen propaganda verspreiden.
Online raakt onze realiteit versplintert
Het wordt niet alleen moeilijker om informatie op waarde te schatten, het wordt ook steeds moeilijker om in een gezamenlijke realiteit te leven. Online raakt onze realiteit versplintert. Ga maar eens een avondje Googelen op de laptop van je buurman of kijk maar eens naar de nieuwsberichten in de social media tijdlijn van een neef of nicht: zij leven in een andere informatiebubbel dan jij. Dat komt omdat algoritmen onze informatievoorziening filteren. Uit onderzoek blijkt dat mensen aanbiedingen en informatie mislopen vanwege de stereotyperende categorieën waar algoritmen van techbedrijven hen in hebben geplaatst. Een voorbeeld is een taxichauffeurvacature die via Facebook vooral mensen met een multiculturele achtergrond bereikte, en een kassamedewerkervacature die alleen vrouwen bereikte.
Social media platformen gebruiken verschillende methodes om gebruikers zo lang mogelijk op hun platforms te houden. Naast persoonlijk afgestemde informatie, vormen polariserende algoritmen een belangrijk onderdeel van het verdienmodel. Uit onderzoek naar YouTube-algoritmen blijkt bijvoorbeeld dat gebruikers naar extremere content worden geleid om hen meer tijd op het platform te laten spenderen. Via een paar geautomatiseerde vervolgsuggesties kun je al belanden bij extreem rechtse content, terwijl je begon met het bekijken van een informatievideo over de Europese Unie.
Hoe voorkomen we dat mensen hun eigen on- en offline ervaringen verheffen tot de enige relevante waarheid?
Desinformatie en verzuilde informatie zijn niet nieuw, maar de machinerie eromheen is anno 2020 grootschaliger, ingrijpender en abstracter geworden. Door het toenemend aantal laagdrempelige technologieën waarmee we de werkelijkheid kunnen bewerken, kunnen mensen steeds moeilijker doorzien wat gemanipuleerd is. Daardoor dreigt een realiteitsapathie te ontstaan waarbij mensen dat wat feitelijk gezien waar is, zoals een pandemie, ook niet meer willen geloven.
Een pandemie die we maar moeilijk kunnen temmen botst met het verlangen naar controle en de belofte dat het leven voorspelbaar en stuurbaar is. Complottheorieën hebben zoveel aantrekkingskracht omdat ze de illusie van volledige controle geven. Door te geloven dat het coronavirus een hoax is van de media of een kleine elite, lijkt de oplossing makkelijk: de vijand is in beeld en nu kan men deze ontmantelen zonder zelf vervelende coronamaatregelen te hoeven treffen.
Wie denkt dat complottheorieën alleen voorkomen onder ‘lager’ opgeleiden zit ernaast. In alle lagen van de bevolking zijn mensen de kennis van officiële instituties en experts gaan wantrouwen. Omdat corona een nieuw en complex virus is – verschillende factoren werken op een complexe manier op elkaar in – en omdat burgers het oneens zijn over de weging van het nationale gezondheidsbelang en andere belangen, is het moeilijk om eenduidige informatie en oplossingen aan te bieden. Elke week verschijnen nieuwe onderzoeken waarvan de resultaten niet allemaal dezelfde kant op wijzen. Ook dit is een voedingsbodem voor complottheorieën die een duidelijke verklaring en eenduidige oplossing aanwijzen. Desinformatie, deepfakes en complottheorieën werken schadelijke vormen van wantrouwen en polarisering in de hand. De vraag is: hoe komen we tot meer gemeenschappelijkheid?
Naar een gedeelde realiteit
Zonder gedeelde informatiesfeer wordt elk maatschappelijk gesprek onmogelijk. We kunnen niet goed samenwerken als we niets meer vertrouwen en alles buiten onze informatiebubbel diskwalificeren als nepnieuws. Om problemen van wereldformaat, zoals klimaatopwarming en pandemieën, aan te pakken is een gedeelde realiteit nodig die door een brede groep gedragen wordt. Maar hoe komen we tot een gedeelde realiteit? Hoe voorkomen we dat mensen hun eigen on- en offline ervaringen verheffen tot de enige relevante waarheid?
De technologie waarmee deepfakes en nepnieuws worden gemaakt, ontwikkelt zich net zo snel als de technologie waarmee deze kunnen worden ontmanteld. Daarmee is een wapenwedloop ontstaan tussen deepfakes en deepfake-detectiesoftware. Als we alleen inzetten op technologiegerichte oplossingen, blijven we dweilen met de kraan open. Een deepfake verbod is een optie, maar hoe realistisch is dat? Totalitaire regimes en bedrijven kunnen onder het mom van deepfake-bestrijding onwelgevallige informatie van het internet verwijderen en de wet misbruiken voor censuur. Een verbod geeft bovendien geen antwoord op de vraag wat een gedeelde realiteit zou moeten zijn. Daar gaan wetenschap, filosofie en ethiek over.
In plaats van nepnieuws te bestrijden met software die binnen no-time achterhaald is, kunnen we beter investeren in weerbaarheid. We moeten de maatschappelijke factoren aanpakken die ervoor zorgen dat mensen überhaupt vatbaar zijn voor nepnieuws, informatiebubbels en complottheorieën.
Het is bekend dat zowel traditionele als nieuwe media contrasterende informatie in de schijnwerpers plaatsen. De eerste stap naar een gedeelde realiteit is het besef dat de werkelijkheid vaak minder gepolariseerd is dan we denken. Kranten, talkshows, nieuwsprogramma’s en social besteden veel aandacht aan tegenpolen en radicale meningen. Schrijver Grimm Bouwmeester deed een scherpe oproep aan de media om wat vaker genuanceerde geluiden in de schijnwerpers te plaatsen: “Waar zijn de nuchtere, nuancerende negentig procent? Taak voor de media. Gun die 10% niet de hele tijd het podium, zij vormen de mening van het land niet. Zet ook de 90% in spotlight. Als je echt gerustgesteld wilt worden, plaats dan negen spiegels rond je televisie. Zodat je tijdens het kijken naar een schreeuwer op televisie ziet dat negen verstandige lotgenoten net zo verbijsterd als jij naar buis staren.”
Het censureren van radicale meningen is onwenselijk voor een open debat en het recht op vrije meningsuiting, maar we kunnen wel het polariserende verdienmodel dat een snellere verspreiding van radicale content bevordert aanpakken. Zo adviseert The Economist dat regelgeving onderscheid moet gaan maken tussen ‘freedom of speech’ en ‘freedom of reach’: laat extreme berichten staan, maar maak ze minder zichtbaar door te verbieden dat algoritmen deze berichten bevorderen om gebruikers langer vast te houden.
Met vijanden spreken en vrede maken
Als we boos zijn dan klikken, commenten en tweeten we makkelijker waardoor we meer data-inkomsten voor techbedrijven genereren. Het verdienmodel van polariseerde algoritmen en informatiebubbels doet afbreuk aan ons inlevingsvermogen. Dankzij algoritmisch gecureerde berichten en zelfbevestigende informatiebubbels, kunnen we nog maar moeilijk empathie opbrengen voor de denkbeelden van een ander.
De online afrekencultuur vierde het afgelopen jaar dan ook hoogtij. Gesprekken ontaardde al snel in het shamen van de ander: niet jouw mening of woordkeuze is slecht, maar jij bent slecht. In plaats van een inhoudelijke dialoog kwam het gesprek vaak niet verder dan elkaar bij voorbaat al te diskwalificeren als moreel minderwaardig. In deze ‘cancelcultuur’ is geen ruimte voor nuance, empathie of mededogen. In 2020 werd de techindustrie zelf ook onderwerp van de cancelcultuur. Zo trokken Coca Cola en Unilever zich terug als Facebookadverteerders omdat het platform racistische uitlatingen oogluikend zou toestaan. Ook namen Facebookwerknemers ontslag nadat topman Mark Zuckerberg had besloten om het looting shooting bericht van Trump te laten staan.
Maar is ontslag nemen wel een effectieve manier om deze industrie te laten veranderen? Ex-Facebook-medewerker Sophie Zhang riep in haar afscheidsspeech haar collega’s op om bij Facebook te blijven en het bedrijf van binnenuit te repareren: “Find others who share your convictions and values to work on it together. Facebook is too big of a project for any one person to fix.”
In 2021 grijpt SETUP deze olijftak aan om de goede krachten binnen onze huidige schadelijke systemen verder te helpen. We doen artistiek ontwerpend onderzoek naar de vraag: hoe verandert technologie ons inlevingsvermogen? Moeten we harder tegen technologieschandalen vechten of juist het potentieel van empathie en vergeving opzoeken? Want als we niet meer met onze vijanden spreken, dan verleren we wat het is om vrede te maken.
Nu social media ouder zijn, worden we geconfronteerd met een verleden dat volledig is opgeslagen en overal kan worden opgeroepen. Het is moeilijk om vergeven te worden als het internet jou niet vergeet. Hoe herijken we ons morele verontwaardigingskompas zodat we oude video’s gaan zien voor wat ze zijn; oud en gemaakt in een andere tijdsgeest. Voor standbeelden en straatnamen van Koloniale overheersers bestaan musea en andere instituties, maar hoe werkt dit online? Hoe om te gaan met oude online artefacten in een veranderende tijdsgeest? Om dat te onderzoeken nemen we in 2021 als gecancelde YouTuber deel aan het Nederlands kampioenschap Levende Standbeelden.
Dat social mediabedrijven polariseringsprofiteurs zijn is duidelijk, maar wat gebeurt er als we het tegenovergestelde van polarisering als ontwerpuitgangspunt nemen? Deze vraag onderzoeken we met Nienke Huitenga en James Bryan Graves die afgelopen jaar hun eerste prototype van WINWIN ontwikkelde: een interactieve ervaring waarin deelnemers via hun smartphone een gepolariseerde kwestie van deze tijd bediscussiëren. WINWIN structureert de discussie door alle meningen te wegen en de groep aan te sturen met een algoritme om consensus naar boven te halen.
2021 wordt ongetwijfeld een jaar vol cancelcultuur-rituelen, viruswaarheid, datahonger en deepfakes. Maar met de digitale lessen uit 2020 en de verkiezingen in het vooruitzicht, wordt het hopelijk ook een jaar waarin het heilige geloof in big data en techsolutionisme wat kunnen bedaren. In tijden van extreme polarisering helpt SETUP graag mee om het potentieel van empathie te benutten om dichterbij een gedeelde realiteit te komen. Een realiteit waarin technologische vooruitgang en maatschappelijke vooruitgang meer samenvallen.
Siri Beerends is cultuursocioloog en schrijver bij SETUP.