Kunnen we dataroof van AI-bedrijven tegengaan?
AI-bedrijven maken dankbaar gebruik van content op het internet om hun AI te trainen. Hoe zorgen we ervoor dat degenen die de content hebben gemaakt beloond worden voor hun werk?
In Frankrijk ligt een wetsvoorstel op de plank om het gebruik van kunstmatige intelligentie (AI) in relatie tot het auteursrecht te reguleren. Doel is ervoor te zorgen dat makers eerlijk worden gecompenseerd voor hun bijdragen aan de creatie van het door AI gegenereerde werk, zelfs als hun specifieke bijdrage niet kan worden geïdentificeerd. Volgens dit voorstel moeten AI-bedrijven eerst toestemming vragen van auteurs of rechthebbenden voordat ze hun werken mogen gebruiken. Ook moeten alle resultaten voorzien worden van het label “gegenereerd door AI” en de namen van de oorspronkelijke auteurs bevatten. Ook wordt voorgesteld een belasting op te leggen aan bedrijven die door AI gegenereerde werken exploiteren waarvan de oorsprong niet kan worden vastgesteld.
Een interessant gedachte-experiment. Misschien nog erg omslachtig, maar het is heel goed om hier nu wel mee te beginnen. In ieder geval een mooie basis om het debat over de ‘ethische grenzen voor AI-gegenereerde content’ te voeren.
Onderscheid in arbeid bij kunstmatige intelligentie
Bij het nadenken over oplossing rondom betaalde en onbetaalde arbeid binnen kunstmatige intelligentie is het belangrijk om de verschillende vormen van arbeid niet over één kam te scheren. Zelf heb ik ook een gedachte-experiment gedaan om deze variabelen inzichtelijk te maken, waarbij ik 4 kwadranten hebt bedacht. Nog niet waterdicht, zie het als een béta-model:
- Actief betaald: het individu voert een directe actie uit waar een (geringe) betaling de enige compensatie is die uit deze transactie komt. Dit zijn de werkenden die veelal onder slechte omstandigheden (en vaak via platformen) het algoritme trainen (bijvoorbeeld door het taggen van foto’s) of de ‘losse eindjes’ van het algoritme corrigeren en oplossen.
- Actief onbetaald: het individu voert een directe actie uit waar geen betaling voor wordt gedaan. Dit zijn de keren dat gebruikers via programma’s als CAPTCHA een test moeten doorstaan om te verifiëren dat deze een mens zijn door het selecteren van foto’s (‘klik de foto’s aan waar een zebrapad op staat’).
- Passief betaald: het individu voedt, zonder hier een directe financiële vergoeding of concrete output voor te ontvangen, het AI systemen. De ‘vergoeding’ voor het individu bestaat uit het gratis (of tegen lagere kosten) gebruik mogen maken van het systeem. Als ChatGPT met de eigen datasets om analyses uit te trekken (betaald is dan dat je met je data betaald om gebruik te maken van de service, zodat je geen financiële bijdrage hoeft te doen) en het corrigeren en aanmaken van woordenlijsten van DeepL (vertalingen).
- Passief onbetaald: bestaande online content (tekst en beeld), gemaakt door individuele ‘content creators’ wordt, zonder kennisgeving aan de maker of rechthebbende en zonder erkenning of vergoeding, door Ai-bedrijven van het web gescraped (dat is een hip woord voor ‘gestolen ;-)) en gebruikt als input voor de systemen.
Dit model is bedoeld om inzicht te geven in de verschillende rollen die arbeid speelt binnen het (door)ontwikkelen van AI en de manier hoe deze zich verhoudt ten opzichte van de makers van content. Deze inzichten kunnen beleidsmakers helpen bij het maken van interventies en beleid ten opzichte van dit onderwerp.
Groeien op rekening van de gebruiker is niet oké
Idealiter zou dit onderwerp op de (ethische) agenda moeten staan bij iedereen die werkt aan kunstmatige intelligentie. Het is discutabel dat grote AI-bedrijven de bal bij beleidsmakers leggen en niet zelf hier in het design al iets voor hebben opgelost. Ik snap het wel: experimenteren en groeien op rekening van de gebruiker is veel lucratiever, maar ethisch gezien natuurlijk niet verantwoord. Dat bedrijven hier liever niet over praten zegt niet dat we hier als samenleving (zowel professioneel als consument) niet zeer kritisch op mogen zijn.