Data en ai
Nieuws

‘Verbied de tools om pornodeepfakes mee te maken’

Deepfake | Beeld: Shutterstock

Bestuurders en Tweede Kamerleden, vrijwel uitsluitend vrouwen, figureren vaak ongevraagd in gemanipuleerde pornovideo’s. In het Verenigd Koninkrijk overweegt men een verbod op de tools waarmee de beelden worden gegenereerd.

Gemanipuleerde porno

Het is een onthulling waarvan je wist dat ‘ie zou komen: het bericht van het Algemeen Dagblad dat er volop gemanipuleerde pornovideo’s bestaan waarin bekende Nederlanders, Tweede Kamerleden en leden van het Koninklijk Huis figureren. Ook burgemeester Sharon Dijksma van Utrecht komt erin voor, weet het AD te melden. Politici reageren vol afschuw op sociale media. ‘Misselijkmakend en bovendien strafbaar. Doe alsjeblieft aangifte!’, schrijft demissionair minister Dilan Yesilgöz van Justitie en Veiligheid op X.

Politici ondermijnen

Volgens Bart van der Sloot, universitair hoofddocent privacy en big data aan Tilburg University, zijn er complete pornosites geheel gewijd aan deepfakes van bestuurders. ‘Het is altijd gericht tegen vrouwen,’ zegt hij. ‘Het komt vaak voort uit misogenie, een manier om vrouwelijke politici te ondermijnen. Een vrouw wordt gereduceerd tot lustobject of belachelijk gemaakt.’ Zie maar eens uiterlijk onaangedaan een raadsvergadering voor als je vermoedt dat iedereen ‘dat filmpje’ heeft zien langskomen.

Een vrouw wordt gereduceerd tot lustobject of belachelijk gemaakt.
Bart van der Sloot, universitair hoofddocent privacy en big data

Politiek wapen

AI-porno wordt soms ook bewust als politiek wapen ingezet. Het overkwam de Indiase journalist en moslima Rana Ayyub. Haar tegenstanders verspreidden een deepfakepornovideo van haar via WhatsApp en wisten haar daarmee succesvol monddood te maken.

Schoolgaande meisjes

Van der Sloot maakt zich het meeste zorgen over schoolgaande meisjes die in toenemende mate met het fenomeen te maken krijgen. Het probleem werd door hem en zijn collega’s al een aantal jaar geleden gesignaleerd en vervolgens opgepakt door Tweede Kamerleden. Maar volgens Van der Sloot stokt het bij de ambtenaren op het ministerie van Justitie en Veiligheid (J&V). ‘We tasten in het duister over het waarom. Mogelijk beschouwt men het onderwerp niet als een prioriteit.’ Een woordvoerder van het ministerie van J&V laat weten dat haar collega’s vandaag druk zijn met de behandeling van de Wet seksuele misdrijven in de Eerste Kamer. Een reactie vanuit het ministerie volgt daarom later.

Strafrechtelijk verboden

Weliswaar is het strafrechtelijk verboden om dit soort beelden te delen (het valt onder wraakporno en vaak is er ook nog sprake van  smaad en identiteitsfraude), maar eenmaal online is het vrijwel onmogelijk voor vrouwen om de beelden weer offline te krijgen. Deepfake-expert Nina Schick merkt in haar boek Deepfakes and the Infocalypse – What You Urgently Need to Know (2020) op dat een vrouw nog de beste kans maakt om een deepfakepornovideo te laten verwijderen door erop te wijzen dat het copyright van de filmstudio wordt geschonden.

Een vrouw maakt de beste kans om een deepfakepornovideo te laten verwijderen door erop te wijzen dat het copyright van de filmstudio wordt geschonden.
Auteur Nina Schick

Tools verbieden

Hoe is het probleem op te lossen? In hun onderzoek uit 2021 suggereren Van der Sloot en zijn collega’s onder meer om pornosites met deepfakes te verbieden, of om de apps en websites te verbieden waarmee iedereen dergelijke deepfakes kan maken. ‘Je moet het aan de voorkant reguleren,’ zegt Van der Sloot. ‘Met sommige apps is één foto van een gekleed meisje genoeg om direct een afbeelding van een naakt meisje te generen. Een verbod kun je nooit helemaal handhaven, maar het helpt wel degelijke als dergelijke apps uit de appstore worden verwijderd. Natuurlijk kunnen mensen nog terecht op het Darkweb of Telegram, maar 90 procent ben je kwijt. En het geeft een belangrijk signaal.’ Naar schatting bestaat 95 procent van de deepfakes uit porno waarin vrouwen ongewild figureren.

Voorzorgsmaatregelen voor genAI-tools

In Groot-Brittannië overweegt de Labourpartij om een dergelijk voorstel in te dienen. Het voorstel reikt verder dan alleen een verbod op nudification tools; het verplicht ontwikkelaars van algemene generatieve AI-toepassingen om voorzorgsmaatregelen te nemen zodat hun product niet wordt gebruikt voor zulke beelden of andere schadelijke deepfakes.

  • Vincent Hoek | 20 maart 2024, 10:43

    Onzin! Apps verbieden is naïef, duur, zinloos en getuigd van achterhaald applicatiecentrisch denken en een illusie van top down controle. Je kunt individuele apps wel verbieden, maar we praten de facto over Open Source programma’s die iedereen gratis kan gebruiken en aanpassen en die je als LEGO-blokjes op allerlei manieren kunt combineren om nieuwe dingen te maken.

    Een beter alternatief is om ons te verdiepen in Human Oriented Proof Standard (HOPrS): een internetbrede, gedecentraliseerde, op makers gerichte en schaalbare standaard die makers in staat stelt om de echtheid van hun inhoud te bewijzen en stelt kijkers in staat dit te verifiëren met een eenvoudig ‘vinkje’. Met HOPrS kun je bijvoorbeeld kijken of een foto is veranderd. Een andere ontwikkeling is Human in the Loop (HitL) om te bewijzen dat er ook altijd mensen meekeken als een AI ‘iets’ doet.

    Zo’n systeem kan helpen om zeker te weten of iets echt is of niet, zonder dat we dingen hoeven te verbieden. Wat nogal suf is, als het toch niet te enforcen is en dus niet bijdraagt aan overheidsgezag.
    Technieken gebruiken die ons helpen om de waarheid verifieerbaar te bewijzen behoudt ook de vrijheid en creativiteit op het internet die we keihard nodig hebben om onze Open Samenleving te behouden. Die paar sukkels die Fake Porno maken verzieken het ook voor de mensen die een grappig filter willen maken voor een foto met hun vrienden, dat zou toch jammer zijn?
    Om de integriteit van informatie in het digitale tijdperk te waarborgen, is dus een gelaagde en weloverwogen aanpak nodig. Dit is waar het concept van HOPrS en Human in the Loop (HitL) technologieën een cruciale rol spelen. HOPrS, een innovatieve methode voor mediaverificatie, maakt gebruik van geavanceerde algoritmes, zoals quad-bomen en perceptuele hashes, om beeldmanipulatie te detecteren. Deze methodologie verschuift de focus van het vertrouwen in de identiteit van de contentmaker naar cryptografische zekerheid door overeenkomsten in mediafragmenten te analyseren. Hierdoor ontstaat er een meer objectieve en transparante manier van verificatie, die de privacy van de gebruikers respecteert (Toliver & Pendlebury, 2021).
    HitL-technologieën brengen de menselijke factor terug in het proces van gegevensverwerking en besluitvorming. Een van de belichaamde vormen van HitL is de inzet van menselijke arbiters die, in combinatie met AI-score van artikelen en veilige gedecentraliseerde opslag, bijdragen aan de betrouwbaarheid van journalistiek (Chatzopoulos, 2021). Door mensen te betrekken bij het controleproces, wordt er ruimte gecreëerd voor nuances die machines vaak missen.
    Ook ideaal voor het juridische domein. De AVG benadrukt het belang van transparantie en zeggenschap van de individu over zijn persoonlijke gegevens en die principes liggen in lijn met de decentralisatie en openheid die HOPrS en HitL voorstaan, waarbij gebruikers meer controle krijgen over hun data en de wijze waarop deze wordt gebruikt en geverifieerd. Nix top down dus.
    Open Standaarden zijn cruciaal voor brede adoptie en vertrouwen en je ziet nu al dat nog te gesloten en beperkte standaarden, zoals de C2PA-standaard (https://c2pa.org) onder druk staan. (nog te gesloten aard, slechte beveiligingsgaranties en afhankelijk van propriëtaire systemen). De samenleving evolueert juist naar open, gedecentraliseerde standaarden die bredere adoptie kunnen bevorderen en vertrouwen kunnen kweken. De C2PA-standaard, ofwel de Coalition for Content Provenance and Authenticity, is een initiatief dat gericht is op het vaststellen van een open standaard voor de herkomst en authenticiteit van digitale content. Deze standaard heeft als doel om de integriteit en oorsprong van mediabestanden te kunnen verifiëren om zo desinformatie en digitale manipulatie tegen te gaan.
    Met andere woorden, het helpt om te bewijzen waar een stuk content vandaan komt en of het echt is of dat er mee geknoeid is. Toch wordt ook het belang van de C2PA-standaard steeds groter in een tijd waarin digitale content gemakkelijk gemanipuleerd kan worden en het kan dienen als een belangrijk instrument om het vertrouwen van consumenten in online media te versterken. Open standaarden bevorderen interoperabiliteit en bieden ruimte voor verbetering en aanpassing, wat essentieel is voor technologische evolutie en juridische compliance.
    Kortom, de combinatie van HOPrS en HitL-technologieën, ondersteund door open standaarden en in overeenstemming met hedendaagse wetgeving, biedt wel degelijk een robuuste basis voor de verdediging tegen desinformatie en het waarborgen van de integriteit van informatie en zijn een stuk slimmer en pragmatischer in te richten dan ‘verbod op stoute apps’.
    Dit is wel een aanpak die zowel de technologische als de menselijke aspecten integreert en respecteert en een toekomstbestendige richting inslaat voor de verificatie van media en content.
    We kunnen niet zonder voortdurend bijleren! Als we iets tegen Deep Fake willen doen, zullen Bestuurders zich moeten verdiepen in essentiële terminologie om ook een gedeeld begrip te kunnen krijgen van reactieve detectie, proactieve verklaring, herkomst en bewijs. Inzichten die we keihard nodig hebben om de discussie helder te kunnen houden, want mediaverificatie is een veelkoppig beest. Je moet ook weten van biometrie en verificatie technieken. In India wordt bijvoorbeeld de Aadhar-kaart gebruikt en daar is toch niet iedereen even blij mee. De Indiase Aadhaar-kaart is een unieke 12-cijfers UIDAI identificatienummer dat aan Indiase burgers wordt verstrekt en wordt gebruikt voor een verscheidenheid aan overheids- en niet-overheidsdiensten. Het is gebaseerd op zowel biometrische als demografische gegevens en heeft als primair doel om elke inwoner van India een unieke identiteit te geven, die je bij door AI gegenereerde media bijvoorbeeld zou kunnen gebruiken als systeemvereiste om de bron van de content te verifiëren.
    Een digitale handtekening of blockchain-technologie, die de integriteit en authenticiteit van het bestand waarborgt … maar een beetje zou schuren met onze Vrijheid van Meningsuiting.
    Normalisatie organisaties, zoals het https://www.ietf.org/ steunen niet voor niets op drie fundamentele principes: geen koningen (dat wil zeggen alleen individuen, geen vertegenwoordigers van grote bedrijven), ruwe consensus en werkende code.
    Media controle is gevaarlijk en leidt al snel tot centralisatie, standaardisatie en harmonisatie.
    Samengevat: als we mediaverificatie willen inrichten, is verbieden zinloos, maar hebben we een betere kans met het omarmen van decentralisatie en open standaarden. Zo kunnen we transparantie, inclusiviteit en de effectiviteit van authenticatieprocessen verbeteren, zonder een “Waarheid Ministerie” te hoeven creëren met een onevenredige invloed op wat vertrouwd wordt en wat niet. De onderliggende technologie is meteen prima toepasbaar voor desinformatie en (financiële) fraude bestrijding, vanwege de nadruk op verifieerbare integriteit van data.
    Uiteindelijk is een feit niets meer dan een verifieerbare claim op een gepercipieerde werkelijkheid, dus moeten we zoveel mogelijk Trust Ankers inbouwen. Niet vertrouwen op een Trusted Third Party (de maker zelf of een redacteur), maar keiharde cryptografische zekerheid door steeds kleinere delen van afbeeldingen te vergelijken en gelijkenisscores te extraheren.
    De waarheid is berekenbaar.
    Bronnen:
    https://www.hackerfactor.com/blog/index.php?/archives/1010-C2PAs-Butterfly-Effect.html
    https://www.hackerfactor.com/blog/index.php?/archives/1013-C2PAs-Worst-Case-Scenario.html
    https://www.human-oriented.org/
    https://github.com/human-oriented/HOPrS
    https://docs.hoprnet.org/core/what-is-hopr
    https://www.technologyreview.com/2024/01/29/1087325/three-ways-we-can-fight-deepfake-porn-taylors-version/
    https://en.wikipedia.org/wiki/Aadhaar

  • Pieter Horchner | 21 maart 2024, 09:36

    Ik ben het helemaal eens met Vincent. Bestrijd foute AI toepassingen met AI.
    Je zou zelfs zo ver kunnen gaan dat er een AI bewerking voor vertoning wordt uitgevoerd op de Deep Fake Video waarin gezichten worden geblured of vervangen worden door een gezicht zonder ogen, neus en mond.

    Is de porn video vast niet meer zo leuk en is de gedupeerde weer vrij van gedoe.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren