Data en ai
Interview

Expert Cynthia Liem over AI: ‘Wat willen we als maatschappij?’

Cynthia Liem in zwarte avondkledij naast een zwarte vleugel op het podium
Cynthia Liem | Beeld: Marco Borggreve

Als multimedia-computerexpert in kunstmatige intelligentie (AI) aan de TU Delft en concertpianist toont Cynthia Liem zich hoogbegaafd op heel verschillende terreinen. En ze kan er op het podium boeiend over vertellen. “Een mens speelt Chopin invoelend, de computer niet. AI ook niet.”

Als je als zoekopdracht ‘partijprogramma’ intoetst, zonder enige context krijgen mensen heel verschillende zoekresultaten, met politieke invloed tot gevolg. Is dit schadelijk?

“Google personaliseert en hanteert contextuele informatie. De vraag is of dat schadelijk is. DuckDuckGo personaliseert niet, maar promootte daardoor wel veel sterker de programma’s van populistische partijen, omdat die zich optimaal presenteerden om zonder veel betaalde campagne veel online aandacht te krijgen.”

“Ik hoop dat de AI Act, Digital Services Act en de AVG helpen om meer transparantie te geven over totstandkoming van zoekresultaten en suggesties, en de rechten beschermen van zowel eindgebruikers als die van de ‘humans in the loop’, de mensen die achter de schermen modereren. Wie zijn deze clickworkers in lagelonenlanden, welke instructies krijgen ze en raken zij niet getraumatiseerd? De kernvraag luidt: wie bepaalt de uitkomsten van AI-toepassing en hoe? Ik hoop dat er – behalve handhaving van regulering – veel publieke dialoog ontstaat over de afwegingen. Enerzijds dreigt censuur door harde regulering, anderzijds een libertarisch model met dominante populistische uitingen. Wat willen we als maatschappij?”

Waarom is de huidige AI-dialoog niet adequaat?

“AI begon als onderzoek naar het modelleren van intelligentie. Hierin zat veel filosofie over de aard van intelligentie en van mensbeelden, plus kennis van cognitie. Computers beginnen als tabula rasa, hoe zou intelligentie ontstaan met welke kennis? Inmiddels is AI industrieel georiënteerd, gericht op toepassingen. De fundamentele discussie wordt overruled door de race om met massale data en rekenkracht met producten zoals ChatGPT commercieel te winnen. De intelligentie wordt voetstoots hoog geprezen, terwijl de aantrekkelijkheid meer zit in de brede praktische mogelijkheden. Ter vergelijking, een zakmes is aantrekkelijk gereedschap vanwege veelzijdig nut, maar niet intelligent.”

Toch is er nu een ethische discussie die bij aanvang van sociale media volkomen ontbrak.

“Dat debat is goed en nodig, maar onvoldoende. Hoe gaan we om met private en publieke belangen? Veel onderzoekscollega’s vertrokken naar industriële partijen voor hogere salarissen en meer data en infrastructuur dan ik bij de universiteit geniet. Bovendien zijn bedrijven beter vertegenwoordigd in lobby’s, waardoor hun perspectief op data van de publieke sector overheerst. Kijk maar eens naar de rol van Microsoft bij OpenAI dat aanvankelijk door publieke belangen leek te worden gedomineerd.”

De algoritmes van TikTok kennen geen principieel verschil tussen een hobby of een wapen. Fijn voor de wapenindustrie, maar voor het algehele welzijn van de mensheid wellicht niet.
Cynthia Liem

Ander onderwerp: uw fundamenteel onderzoek, bijvoorbeeld categorisering van voedsel in sociale media met behulp van AI…

“Als je aan een AI-toepassing om het recept van een pizza vraagt, krijgt je als resultaat de pizza zoals de gemiddelde Amerikaanse pizzabezorger die kent en niet de originele Napolitaanse pizza. Categorisering is immers gestoeld op subjectieve sociale en culturele fenomenen en niet op objectieve natuurwetten. De ontwikkelaars van AI nemen dat niet mee; zij pakken de data die ze tot zich krijgen en vertalen die statistisch tot patronen. Met in het geval van de pizza als uitkomst dat je een fastfoodproduct krijgt voorgeschoteld dat niet bepaald in de schijf van vijf past. Die pizza is wellicht onschuldig, maar radicaliserende filmpjes zijn dat niet; zeker niet in oorlogstijden. De selectiealgoritmes van TikTok zijn erop ingericht dat mensen worden meegezogen in wat ze gepresenteerd krijgen. Maar de algoritmes van TikTok kennen geen principieel verschil tussen een hobby of een wapen. Fijn voor de wapenindustrie, maar voor het algehele welzijn van de mensheid wellicht niet.”

Wat kan er dan misgaan?

“Heel veel. Ten eerste wordt de ideale gebruiker van TikTok en concurrenten een verslaafde gebruiker. Ten tweede is de selectie die je voorgeschoteld krijgt geheel gebaseerd op wat eerder is bekeken. Statistisch machineleren is fundamenteel gestoeld op trainen en evalueren op bestaande data. Het succes zit dus in de bevestiging van eerder geobserveerd succes. Hier speelt dan het risico dat dominante wereldbeelden nog meer de minder dominante overheersen; zie het pizza-voorbeeld.”

Ik vrees een trechter, terecht?

“Precies! Cultuurgevoelige, creatieve mensen zullen wellicht nog actief naar andere perspectieven en nieuwe interesses zoeken. Maar velen zullen niet doorhebben wat ze mislopen, omdat ze tevreden zijn met wat ze krijgen. Kritisch nadenken en afwijken van een makkelijk herkenbare norm erodeert, omdat we zo snel en gemakkelijk bij die herkenbare norm terechtkomen.”

Dit is een verkorte versie van het artikel dat verscheen in iBestuur #49 van januari 2024.
Nog geen (gratis) abonnement? Klik HIER

Lees ook:

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren