Artikel

Kunstmatige intelligentie: hebben we iets te kiezen?

Technologie is niet waarde-neutraal. In de ethiek maken we een afweging tussen de positieve en negatieve effecten van het gebruik van technologie. Maar als technologie onze fundamentele waardes aantast, moeten we voorzichtig zijn. Een van deze waardes is de keuzevrijheid van mensen. Kan kunstmatige intelligentie mij ervan weerhouden de dingen te doen die ik wil?

Arjan Lubach had het over de informatiefuik. Computers beslissen welke informatie je wel of niet krijgt te zien. Maar zoals in de Netflix-documentaire “The Social Dilemma”:https://www.netflix.com/nl/title/81254224/ wordt gezegd, je kunt je aan deze beslissingen onttrekken. Maar wat als intelligente computers beslissingen gaan nemen waar je niets tegen kunt doen?

Daarom willen veel experts dat kunstmatige intelligentie (AI) alleen wordt gebruikt om een betere wereld te maken. Een eerlijke wereld zonder discriminatie, uitsluiting en vooroordelen. Vooral in academische kringen is dit de meetlat waartegen projecten vaak worden beoordeeld.

Maar in het bedrijfsleven hebben velen andere prioriteiten. Meewerken aan een beter wereld is nobel, maar er moet wel geld worden verdiend. Bijvoorbeeld om medewerkers brood op de plank te laten hebben. AI-toepassingen worden vooral gebruikt om meer dingen sneller en goedkoper te doen. Om zo kosten te besparen of meer omzet te genereren. Daar is op zich niets mis mee.

Ethisch oordelen

Als AI-systemen niet primair worden gebruikt om een betere wereld in te richten, wat is dan het criterium om AI-systemen ethisch te beoordelen? Is het toch non-discriminatie of is er iets anders fundamenteels aan de hand? Laat ik beginnen met een eenvoudig voorbeeld:

Stel: u handelt in barbecues. Uw marketingafdeling zegt dat mannen vooral barbecues kopen en u richt daarom uw advertentiecampagne op mannen. Dat klinkt logisch, maar u kunt het verwijt krijgen te stereotyperen en vrouwen uit te sluiten. Maar is het uw taak vooroordelen in de maatschappij te verminderen? En is dit wel een vooroordeel? Want zo zit de barbecuemarkt toch in elkaar?

Wat belangrijk is, is dat u niemand verbiedt uw barbecues te kopen. Vrouwen mogen uw barbecues best kopen, graag zelfs. Maar u richt uw aandacht niet specifiek op deze doelgroep. Is dit discriminatie? In de loop van de geschiedenis hebben groepen mensen dingen gedaan waarvan andere groepen vonden dat dit niet mocht. Vrouwen worden piloot, mannen worden verpleger, gekleurde mensen gaan naar de universiteit. Ondanks allerlei maatschappelijke tegenstand waren de producten en diensten, waar ze gebruik van maakten geschikt voor iedere groep. Er is weinig in het ontwerp van een vliegtuig dat vrouwen verhinderd om te gaan vliegen. En zo zijn nog vele voorbeelden te verzinnen. Ik zeg niet dat discriminatie geen groot probleem is, ik zeg alleen dat deze oudere vormen van technologie in principe discriminatie niet uitlokken. Soms zijn aanpassingen vanuit ergonomisch oogpunt nodig, maar dat is niet het punt. Het is de maatschappelijk in- en toepassing die kan discrimineren.

Stel: u handelt in barbecues. Uw barbecues zijn alleen te koop in mannenwinkels. Vrouwen mogen die winkels niet betreden. Aan de deur moet je je gender laten bepalen en op basis daarvan wordt de klant wel of niet toegelaten. Dit is natuurlijk een raar voorbeeld, maar stel dat dit zo zou zijn. Wilt u dat? En wist u wel dat uw barbecues op die manier aan de man worden gebracht?

Discriminatie vermijden

Bij kunstmatige intelligentie kan het net zo gaan. De technologie en de toepassing ervan zijn kunnen wel inherent discriminerend zijn en bevolkingsgroepen uitsluiten. Omdat AI-toepassingen voorgaande menselijke beslissingen overnemen. Beslissingen die over mensen gaan. Die discriminerend kunnen zijn omdat AI-systemen leren aan de hand van discriminerende gevallen uit het verleden. En waar voorheen mensen deze beslissingen goedkeurden en eventueel corrigeerden, kan het nu gebeuren dat deze goedkeuringen ook door machines worden gedaan. Of dat deze beslissingen zo complex en onnavolgbaar zijn, dat medewerkers niet meer in staat zijn deze beslissingen te beoordelen.

Amazon wilde haar recruitmentproces – het werven van nieuw personeel – objectiever maken. Een computer kijkt dan naar de inhoudelijkheid van de sollicitant in plaats van naar het uiterlijk. Toch bleek dit systeem vrouwen te discrimineren. Hoe kwam dat? Omdat Amazon een oververtegenwoordiging van mannen in het personeelsbestand heeft, dacht het AI-programma dat mannen geschikter waren dan vrouwen. Anders zouden er toch niet zo veel mannen werken? Deze voorkeur voor mannen viel gaandeweg op. Het AI-programma faalde in zijn doelstelling en werd uitgeschakeld.

Als we er niet van bewust zijn dat AI-systemen kunnen discrimineren, is de verleiding groot de computerbeslissingen als objectief te zien. Maar dat is vaak niet het geval wanneer het om beslissingen over mensen gaat. “Computer says No!”, zonder dat we weten waarom. Daarom wordt er nu hard gewerkt om ervoor te zorgen dat we na kunnen gaan waarom en hoe een computer een beslissing neemt. Transparantie, verantwoordelijkheid en rechtvaardigheid zullen belangrijke thema’s blijven in de wereld van AI. Dus ook voor al die organisaties die AI toepassen of willen toepassen.

AI-ethiek is vrij snel geconvergeerd in een reeks van vijf principes:

– Niet-kwaadaardigheid
– Verantwoordelijkheid of aansprakelijkheid
– Transparantie en uitlegbaarheid
– Rechtvaardigheid en eerlijkheid
– Respect voor mensenrechten, zoals privacy en veiligheid
(Bron: Ethics of AI)

Keuzevrijheid koesteren

Maar voor mij is de essentiële vraag die hoor bij computer-gebaseerde beslissingen: beperkt het onze keuzevrijheid? Of worden we gedwongen om bepaalde dingen te doen, te kopen of na te laten? Wanneer een webwinkel mij producten aanbeveelt, kan en mag ik daarvan afwijken. Ik hoef me er niets van aan te trekken. Ik koop iets anders of niets.

Waar ik wel voor wil waarschuwen is dat AI-beslissingen ertoe kunnen leiden dat mensen worden uitgesloten. Omdat het programma vindt dat deze mensen er niet voor in aanmerking komen. Of niet geschikt zijn zonder dat je als individu het tegendeel kunt bewijzen.

Moet AI leiden tot een betere wereld met meer gelijkheid en kansen voor iedereen? Graag. Maar laten we de huidige systemen niet te veel hierop beoordelen. Laten we er vooral voor zorgen dat AI-systemen de wereld niet slechter maken. Door mensen uit te sluiten, keuzes voor te schrijven en mensen in hokjes te plaatsen. Kunstmatige intelligentie kan discrimineren, fouten maken en gewoon domme dingen doen. Laten we AI-systemen vooral zo inrichten dat de keuzevrijheid van mensen niet wordt ingeperkt. Dat mensen mogen afwijken, tegendraads mogen blijven en zo de wereld ietsje vooruithelpen.

Reinoud Kaasschieter is Expert in Enterprise Content Management bij Capgemini

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren