Data en ai
Podium

Geef deepfakes de (juiste) ruimte!

Deepfakes roepen vragen op over auteurschap en authenticiteit. Een meerderheid van de Tweede Kamer wil bepaalde vormen van deepfakes bij wet verbieden. Is dit de goede weg? Deepfakes zijn een reflectie van onze hyperrealiteit en kunnen ons ook inspireren en ons op nieuwe ideeën brengen.

Rutte & de Jonge – White Christmas (ft. van Dissel, Gommers), Deepfake | Fake It or Leave It, 2021

Een app waarmee je jezelf in het letterlijk gezicht aanmeet van je favoriete voetballer, niet bestaande figuren die ons het nieuws voorlezen of technologie waarmee je jezelf in een kerstfilm plaatst; deepfakes zorgen voor veel creativiteit. Maar wat als deze technologie ingezet wordt om politici woorden in de mond te leggen? Wanneer we Biden Baby Shark horen zingen, of Rutte een progressieve klimaatboodschap proclameert? Deepfakes zijn het volgende stadium op de trap van desinformatie en zorgen wereldwijd voor veel hoofdbrekers omtrent hoe ze te lijf te gaan.
De meerderheid van de Tweede Kamer gaf vorige week te kennen dat ze bepaalde vormen van deepfakes bij wet wil verbieden. In het politieke debater hierover wordt vooral ingegaan op de handhavingsmogelijkheden van zo’n verbod. Hierbij wordt echter voorbijgegaan aan de fundamentelere vragen: moet je deepfakes wel verbieden?

Een verbod van bepaalde vormen van technologie zal altijd achterhaald zijn.

Deepfakes stellen nieuwe vragen aan auteurschap en authenticiteit. Wie is er verantwoordelijk voor de productie, is dat de maker van de deepfake of het platform dat deze verspreid? En als je een hoofd van een ander op een willekeurig lichaam plaatst, kunnen we dan nog wel aanspraak maken op persoonsschending? Je bent het immers niet zelf meer. Bovendien is het de vraag of ingrijpen wel mag, gezien de wet op vrijheid van meningsuiting. Deze vragen zijn op zijn zachts gezegd ingewikkeld.

Een wet die deepfakes verbiedt suggereert bovendien dat het mogelijk zou zijn fake van echt te kunnen onderscheiden. Echter, mensen zijn op dit moment eigenlijk al niet meer in staat om dat te doen en ook detectietechnologie kan deepfakes nauwelijks bijbenen. We staan waar het gaat om validatie eigenlijk voortdurend 1-0 achter. Welk wetgevingsproduct er momenteel ook geïntroduceerd wordt: een verbod van bepaalde vormen van technologie zal altijd achterhaald zijn.

Bovendien zal detectietechnologie – hoe goed in staat ook om een oorspronkelijke van een gesynthetiseerd bron te onderscheiden – juist ook nieuwe, menselijke, ideeën als vreemd en fake kunnen aanmerken, omdat die niet herkend kunnen worden als authentiek op basis van eerdere bronnen. De Galileo Galilei’s van deze tijd zullen daardoor uit het systeem gefilterd worden. En dat is het laatste wat we moeten willen.

Hyperrealiteit

De focus zou veel meer moeten komen te liggen op het doorgronden van de sociaal-politieke aard van dit vraagstuk en het duiden van de technocalyptische samenleving waarin we nu eenmaal opereren. Deepfakes zijn een reflectie van onze hyperrealiteit; een tijdperk waarin we een nieuwe delicate dans ontwikkelen rondom echt, nep en alles daartussen. Dat vraagt om nieuwe vormen van duiding, contextualisering, validatie en weerbaarheid.

‘Fake’ niet per se ‘niet waar’

In plaats van de focus te leggen op verbieden of het ontwikkelen van nieuwe wetten, moet juist de aandacht naar nieuwe samenwerkingen tussen deepfake experts, journalisten, mensenrechten deskundigen, politici en het publiek om zo gezamenlijk te verkennen welke omgangsvormen we hierin willen ontwikkelen. De Amerikaanse denktank WITNESS bestaande uit zo’n gemengde groep experts, zet in op publieke dialogen waarbij beheerders van platforms, sociale mediasites en zoekmachines, in nauwe samenwerking met journalisten, mediaconsumenten en mensenrechtenexperts een gezamenlijk aanpak ontwerpen. Laten we kortom inzetten op het omarmen van de deepfake als mogelijkheid onszelf te scherpen in het duiden van onze hyperrealiteit. We zouden soms de deepfake juist moeten omarmen omdat het ons ook kan inspireren en ons op nieuwe ideeën kan brengen. Denk aan AI art- of tekst generatoren waarmee we op basis van steekwoorden prachtige afbeeldingen en verhalen kunnen laten maken, die onze fantasie en wetenschappelijke creativiteit weer aan het werk zetten.

Daarnaast is ‘fake’ niet per se ‘niet waar’. Een student die een scriptie laat schrijven met behulp van ChatGPT levert wellicht geen onjuiste dingen in, of leert hierdoor misschien andere dingen vergeleken met het zelf de pen ter hand nemen. Waar een onderwijsinstelling zich hier op zou moeten richten is niet zozeer de vraag of de scriptie echt of nep is, maar of er nieuwe ideeën gegenereerd worden die het werkveld beter maken. Wanneer we aan de hand van die maatstaf goede criteria gebruiken, wordt de vraag rondom ‘fake’ veel minder relevant. De technologie is er, en zal blijven. We moeten beter leren omgaan met het onvermijdelijke door de juiste vragen en eisen te stellen ten aanzien van deze technologie.



Daniëlle Arets, lector Journalistiek en Verantwoorde Innovatie, Fontys Hogeschool

Leon Kester, senior research scientist gespecialiseerd in artificial intelligence safety & ethics, TNO

  • Vincent Hoek | 7 januari 2023, 23:42

    Goed artikel, maar om te kunnen duiden wat fake is, moeten we ook beter duiden wat waarheid is als verifieerbare claim op een veronderstelde intersubjectieve realiteit.
    Juist een generieke insteek op datakwaliteit (ISO 8000) afgezet tegen identiteit (ISO 29003) biedt hier concrete kansen voor en dan kunnen we middels Legal Engineering meteen zaken regelen als de bescherming van bijvoorbeeld het portretrecht.
    Misschien moeten we meer inzetten op Proof of Humanity of bron verificatie in Deep Fake tech om de Good Tech van de Bad Tech te kunnen blijven onderscheiden. Leuk dat Deep Fake kan, maar de Staat dient nog steeds de collectieve veiligheid van de Rechtstaat te waarborgen. De werkelijkheid is echter een commodity geworden.
    Een simulacrum. Een kunstmatige kopie van de realiteit. De opkomst van de virtualiteit ondergraaft onze traditionele werkelijkheidsperceptie. Een verse sinaasappel belooft sap. Sap hoeft niet uit een sinaasappel te komen. Pulp met water komt uit een supermarkt pak. Je eindigt de illusie met een glas sinas met prik en E-nummers. Een kunstmatige kopie van de realiteit. In onze Postmoderne samenleving zijn wij omringd door simulacra die zo goed zijn dat zij zelfs ‘beter’ zijn dan The Real Thing. Steeds meer mensen verkiezen dan ook de hyperrealiteit boven de werkelijkheid. Vette conditieloze lamlendige pubers op slecht geventileerde kamertjes voelen zich gespierde skydivende superhelden. Onzekere pukkelmeiden pruilen als socialites geretoucheerde eendebekjes voor een virtuele Eiffeltoren. ‘Been there’ op ‘Insta’. Wij interacteren allang met synthetische mensen (Synths). Die stem in je routeplanner? Siri? Die vriendelijke, geduldige stem aan de andere kant van de lijn? Een social chat bot! Deep fake video. Hoeveel telefoonnummers en emailadressen kennen wij nog uit ons hoofd? Wat doet dat met onze kennis van bodylanguage of met onze intersubjectieve planning skills? Deep Fake is ook een oorlogsinstrument: Fear Uncertainty and Doubt (FUD) in een samenleving die niet meer weet wat ‘echt’ is maakt collectieve besluitvorming erg moeilijk. Omgekeerd kan hyperrealiteit inderdaad ook positieve effecten hebben, zoals het upgraden van sociale vaardigheden met een reward systemen (goed gedaan zegt de hardloopapp-stem!) en gezagsindicatie. De Franse mediafilosoof en socioloog Jean Baudrillard zag simulatie als een “kopie zonder origineel”, maar wij zouden ook een originaliteitswaarmerk in Deep Fakes moeten kunnen plaatsen. Hoeveel online gesprekken zijn nog ‘echt’ en hoeveel zijn een bot simulacrum? De vijanden van de Open Samenleving gebruiken allang bots om ideologiëen en politieke narratieven in te laten vreten op ons wereldbeeld. Samenzweringstheorieën zijn de sinas van het kritisch denken. De hyperrealiteit van samenzweringstheorieën is aannemelijker dan de werkelijkheid, dankzij de mentale rust van een besloten wereldbeeld en het gevoel van controle dat de gelovige ‘de samenzwering wel door heeft’. Hyperrealiteit is een infodemie: een perceptie verstoring op basis van twijfelachtige inhoud en ongeverifieerde informatie bronnen over een specifiek onderwerp. Het kost heel veel moeite om die hyperrealiteit terug te draaien, dus waarom geen Trust Ankers inbouwen in legitieme Deep Fakes, zodat we kunnen herleiden of data al dan niet geverifieerd zijn. Informatie van lage kwaliteit in Deep Fakes kan bijvoorbeeld leiden tot irrationeel sociaal gedrag en daarmee tot onaanvaardbare maatschappelijke risico’s.
    Virtualisatie kan veiliger worden gemaakt als er wordt geïnvesteerd in context verificatie en media kennis, in sociale netwerk correlatie, crowd-sourcing en machine learning, om het verschil tussen feit en fictie beter te kunnen meten in virtuele omgevingen. Deep Fakes herkennen is een kwestie van het combineren van computationele analyse en dataset validatie. Deep Fake simulacri zijn inderdaad realiteit, maar ook samenzweringstheorieën, zoals QAnon, ZeroHedge, GreatAwakening, Inf0wars, WWGWGA (Where We Go We Go All) etc. Wij snappen het en de rest is gek! Hyperrealiteit is een drug die regulering behoeft, wat ook kan door verifieerbare eisen te stellen aan data kwaliteit, bronvermelding, Trust Ankers (ISO 29115).
    “With great power comes great responsibility” geldt niet alleen voor Marvel Comics.

  • Igor van Gemert | 8 januari 2023, 18:02

    Deepfake-technologie kan nepvideo’s maken die bijna niet van echt te onderscheiden zijn, wat zorgen baart over het gebruik ervan voor het verspreiden van verkeerde informatie en het manipuleren van de publieke opinie. Sommige regeringen en wetgevers hebben voorgesteld bepaalde soorten deepfake-technologie te verbieden, maar deze aanpak is bekritiseerd als zijnde onwaarschijnlijk effectief, omdat de technologie elke wetgeving altijd een stap voor zal zijn. Bovendien zou een verbod op deepfakes ook onbedoelde gevolgen kunnen hebben, zoals het verstikken van creativiteit en het mogelijk beperken van de vrijheid van meningsuiting.

    In plaats van te proberen wetgeving op te stellen tegen deepfake-technologie, is het wellicht productiever om de sociale en politieke problemen die deze technologie oproept aan te pakken. Er zouden bijvoorbeeld mediageletterdheidsprogramma’s kunnen worden ontwikkeld om mensen te helpen de authenticiteit van online inhoud te herkennen en kritisch te beoordelen, en er zouden meer inspanningen kunnen worden gedaan om transparantie en verantwoording te bevorderen bij het maken en verspreiden van deepfake video’s. Het is ook belangrijk om de rol van platforms en technologiebedrijven bij de aanpak van het probleem in overweging te nemen, aangezien zij maatregelen kunnen nemen om deepfake-inhoud op te sporen en van hun platforms te verwijderen. Uiteindelijk zal de aanpak van de impact van deepfake-technologie een veelzijdige aanpak vereisen die rekening houdt met de sociale, politieke en technologische dimensies van het probleem.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren