Binnen de ontwikkeling van AI is ethiek een hot topic. Naarmate AI steeds autonomer kan opereren, zullen we in steeds grotere mate de controle uit handen moeten gaan geven. Dit zorgt logischerwijs voor gevoelens van angst. Daarbij komt dat fictie steeds vaker wordt ingehaald door de realiteit. Zo crashte in 2016 een Tesla op de automatische piloot, waarbij de bestuurder om het leven kwam. Het volstaat niet langer om op afstand te filosoferen over wat goed of juist is. Ethiek is meer dan ooit praktische filosofie.
Interieur van een zelfrijdende auto. Wie is er verantwoordelijk bij een ongeluk met een zelfrijdende auto? Beeld: Marco Verch / Creative Commons (CC BY 2.0)
Wie is er verantwoordelijk bij een ongeluk met een zelfrijdende auto? In hoeverre kan een robotrechter objectief oordelen? En hoe waarborgen we onze privacy bij het gebruik van trackingapps? Dit soort vragen spelen een grote rol in het debat over AI (artificiële intelligentie) en ethiek. Dit zijn enorm complexe vraagstukken, omdat er vaak geen universeel aangenomen waarheid bestaat. Iedereen heeft zijn eigen perspectief en er zijn meerdere ethische stromingen die soms lijnrecht tegenover elkaar staan. Gelukkig komen er steeds meer ethische richtlijnen die de ontwikkeling van betrouwbare AI-systemen moeten waarborgen. Uit deze richtlijnen zijn algemene principes af te leiden, zoals rechtvaardigheid, transparantie, eerlijkheid, betrouwbaarheid en privacy. Ethische principes en richtlijnen kunnen ons helpen om overeenstemming te vinden over wat we belangrijk vinden om zo AI-toepassingen te kunnen ontwikkelen die hieraan voldoen. De vraag is echter in hoeverre deze richtlijnen in de praktijk standhouden. In de praktijk komen er namelijk dilemma’s voor, waarbij waardenconflicten kunnen ontstaan. Zo zijn we het er in de basis allemaal over eens dat je bijvoorbeeld niet mag doden. Maar wat doe je als een terrorist honderd mensen probeert neer te schieten? Mag een autonome wapendrone dan niet ingrijpen? Ethische richtlijnen zouden niet alleen moeten gaan over wat we belangrijk vinden, maar ook over hoe belangrijk we verschillende waarden ten opzichte van elkaar vinden. En in welke omstandigheden we dat vinden.
Trade-offs
Wat we belangrijk vinden, is sterk afhankelijk van de context. Denk bijvoorbeeld aan privacy. Als de dokter tijdens een spreekuur vraagt om je broek uit te doen is dat in de meeste gevallen geen probleem. Maar als de bakker hetzelfde vraagt, is het een schending van je privacy. Ook voor bijvoorbeeld explainability is de context bepalend. Zo zal de mate van uitlegbaarheid die we van een systeem verwachten bij een chatbot, lager liggen dan bij een zelfrijdende auto. Het belang is dus onder meer afhankelijk van de mogelijke risico’s. Zo is ook de geaccepteerde mate van subjectiviteit afhankelijk van de context. Zo zal een ‘foutieve’ aanbeveling van Netflix ons weinig schade berokkenen, maar wanneer een medische diagnose ernaast zit heeft dit veel grotere consequenties. Hoewel de subjectiviteit van het aanbevelingssysteem van Netflix veel hoger is dan de beeldherkenningssoftware van een ziekenhuis, zullen we aan die laatste veel hogere eisen stellen.
Er moeten daarbij ook technische afwegingen gemaakt worden. Een belangrijke trade-off in de praktijk is tussen accuracy en explainability. Methodieken die momenteel bij de ontwikkeling van AI-systemen worden gebruikt, zoals deep learning, zijn dermate complex dat de precieze beslissingsprocessen niet volledig herleidbaar zijn. De optimalisering van dergelijke systemen vindt nu nog vaak plaats aan de hand van trial and error: er wordt aan de input getweaked om te kijken wat dit met de output doet. Wanneer je de accuratesse van het systeem wilt optimaliseren, dan zal je een stukje van je uitlegbaarheid moeten inleveren. Trade-offs vallen daarmee in een spectrum. Mensen moeten kiezen waar zij zich in het spectrum het meest comfortabel voelen. Daarvoor bestaat geen gulden snede, het is allemaal maatwerk. Ethische principes en richtlijnen kunnen daarom niet één op één in de praktijk worden overgenomen. Elke specifieke situatie vraagt om specifieke afwegingen. Steeds moet in de context bepaald worden welke waarden met elkaar schuren en wat hierin acceptabel is. Een afweging die in bepaalde situaties wordt geaccepteerd, kan in andere situaties volledig onacceptabel zijn. We zullen samen met elkaar moeten bepalen wat we in welke situatie kunnen en willen accepteren. Dit wil overigens niet zeggen dat we dan waarden als privacy volledig moeten opgeven. Het is geen ‘zero-sum game’ waarbij we het een voor het ander moeten uitruilen, maar er zullen in het ontwerp wel keuzes gemaakt moeten worden.
Fair enough?
We willen uiteraard allemaal dat bij de inzet van AI-systemen mensen eerlijk behandeld worden en niet worden benadeeld op basis van bijvoorbeeld hun geslacht of afkomst. Fairness is dan ook een veelgebruikt principe in ethische richtlijnen en assessment tools. Toch is het niet eenvoudig om te bepalen wat dan precies ‘fair’ is. Dit vraagstuk houdt filosofen al een paar honderd jaar bezig. Er bestaat geen eenduidig beeld van hoe de samenleving eruit zou zien wanneer er geen oneerlijkheid meer zou bestaan. Is een samenleving waarin iedereen exact hetzelfde behandeld wordt überhaupt wel eerlijk? Door de komst van AI krijgt dit vraagstuk een nieuwe dimensie. Het concept van eerlijkheid moet namelijk in wiskundige termen worden uitgedrukt. Denk bijvoorbeeld aan het gebruik van AI in het rechtssysteem. Door de inzet van predictive policing kan crimineel gedrag worden voorspeld door middel van grootschalige monitoring en data analyses. Er bestaat echter altijd het risico dat mensen zonder de gestelde criteria toch positief scoren (false-positives) en dat mensen die wel aan de gestelde criteria voldoen toch negatief scoren (false-negatives). Wat is in dit geval fair? Zet je mensen mogelijk onterecht vast, of riskeer je dat ze een misdaad begaan? Sommige richtlijnen laten zich daarbij eenvoudiger kwantificeren dan andere. De mate van bijvoorbeeld accuratesse kun je meetbaar maken, maar voor transparantie is dat veel lastiger. Wanneer is iets bijvoorbeeld ‘transparant genoeg’? Bij zeventig procent transparantie? En wat houdt dat dan precies in? Het is daarbij de vraag of honderd procent transparantie überhaupt het nastreven waard is.
Wetgeving
Volgens verschillende experts is wetgeving nodig om ervoor te zorgen dat ethische richtlijnen worden nageleefd. De eerste stap in deze richting wordt beschreven in de ‘White Paper on AI’, die in 2020 door de Europese Commissie is gepresenteerd. In deze white paper zet de commissie voorstellen uiteen om de ontwikkeling van AI in Europa te bevorderen, met inachtneming van de Europese grondrechten. Een belangrijk onderdeel van dit rapport is het voorstel om een ‘prior conformity assessment’ te ontwikkelen voor risicovolle AI-toepassingen, gebaseerd op de ethische richtlijnen van de High Level Expert Group on AI. Dit wettelijk kader moet de risico’s voor de grondrechten en veiligheid aanpakken. Betrouwbare AI-systemen kunnen hiermee een keurmerk verkrijgen, zodat het duidelijk is voor gebruikers welke systemen ze kunnen vertrouwen.
Als we in de toekomst ethisch verantwoorde AI-systemen willen gebruiken, dan redden we het niet met alleen richtlijnen en assessments
Hoewel het erg belangrijk is om ervoor te zorgen dat de ethische richtlijnen in de praktijk worden toegepast en AI-toepassingen de Europese wetten en grondrechten respecteren, biedt het onvoldoende handvatten om de richtlijnen daadwerkelijk in het ontwerpproces te integreren. De huidige beschikbare checklists en assessment tools zijn hiervoor onvoldoende kwantificeerbaar. Nu kan elk aspect van de lijst ‘afgevinkt’ worden zonder er volledig aan te voldoen. Ethische richtlijnen en assessments zijn dus voornamelijk instrumenten om te evalueren óf de AI-toepassing voldoet of zal voldoen, niet hóe de vereisten geïntegreerd moeten worden in het ontwerp zelf (en daarmee de evaluatie kan doorstaan). Hoewel veel richtlijnen en assessments verschillende checklists en vragenlijsten bieden, geven ze geen antwoord op de vraag hoe AI-systemen ethisch verantwoord kunnen handelen.
Ethics by design
Als we in de toekomst ethisch verantwoorde AI-systemen willen gebruiken, dan redden we het niet met alleen richtlijnen en assessments. Er zijn handvatten nodig om dergelijke principes daadwerkelijk te integreren in het ontwerp. We moeten daarom de stap maken van evalueren naar integreren. Kortom, er is behoefte aan ‘Ethics by Design’. Ondanks het feit dat steeds meer ethici dit inzicht delen blijft het vaak bij de constatering dát het noodzakelijk is om waarden te integreren in AI-toepassingen. De vraag hóe dit precies in de praktijk moet gebeuren, blijft grotendeels onbeantwoord. Zo worden voorbeelden aangehaald van AI-toepassingen die ethisch verantwoord tot stand zijn gekomen, maar dat zegt niet zo veel over het AI-systeem zelf. Denk bijvoorbeeld aan de Fairphone: een smartphone die zowel eerlijk is voor het milieu, als voor de mensen in het productieproces. Deze telefoon laat weliswaar zien dat waarden verenigd kunnen worden, maar geeft geen antwoord op de vraag of het besturingssysteem ervan ook in staat is om ethisch verantwoorde beslissingen te nemen.
Hetzelfde geldt voor de bestaande impact- en assessmenttools die gebruikt worden bij de beoordeling van AI. Deze gaan meer over de totstandkoming van het AI-systeem, dan over de handeling van het AI-systeem. De meeste assessmenttools zijn checklists waarbij voornamelijk vragen worden gesteld over het gebruik van de datasets. Is de data geanonimiseerd? Is de data divers genoeg? En is het proces transparant? Ze geven vaak geen antwoord op de vraag op welke wijze een AI-systeem tot ethisch verantwoorde beslissingen kan komen. Om ethiek daadwerkelijk in de AI-praktijk te kunnen brengen, moet worden gekeken naar de verschillende manieren waarop een AI-systeem kan leren wat wel en niet ethisch verantwoord is. De vraag is dus op welke wijze we systemen kunnen bouwen die in verschillende situaties ethisch verantwoord kunnen handelen. Kun je ethische regels in het systeem programmeren? Of moet het systeem zelf morele afwegingen kunnen maken?
Morele intuïtie
Wanneer je ethische richtlijnen in het systeem wilt programmeren, dan moeten er regels zijn voor élke situatie die kan voorkomen. Dat is in praktijk vrijwel onmogelijk om te realiseren. Bovendien zijn er situaties waarin tegenstrijdige regels gelden. Zo mag je bijvoorbeeld niet door rood rijden. Maar wanneer een groep mensen ontweken kan worden móet een autonoom voertuig wel degelijk door rood rijden. Het is bijna onmogelijk om ál deze uitzonderingen vast te leggen. Daarnaast zijn niet alle gevolgen vooraf te overzien. Het is voor mensen mogelijk om op basis van wetten en regels auto te rijden, omdat ze deze naar de specifieke context vertalen. Deze laatste stap kun je niet voorprogrammeren. Zo is de wettelijke maximumsnelheid op veel plekken in Nederland verlaagd naar honderd kilometer per uur. Beter voor de verkeersveiligheid én beter voor het milieu is de gedachte. Hoewel mensen op deze plekken honderd kilometer per uur mógen rijden, doen ze dat niet overal. De snelheid wordt continu afgestemd op de omgeving. Er zijn AI-systemen nodig die het vermogen hebben om te kunnen redeneren met onzekerheid en een idee van ‘zelf’ hebben om met ‘trolleyachtige’ problemen om te kunnen gaan. ‘De ethiek’ zou daarom niet letterlijk in het ontwerp moeten zitten, maar het systeem zélf zou in staat moeten zijn om ethische afwegingen te kunnen maken.
Onderzoek
Toekomstonderzoeker Rudy van Belkom deed namens Stichting Toekomstbeeld der Techniek onderzoek naar de impact van AI op de toekomst van besluitvorming. Onlangs lanceerde hij het derde en afsluitende deel in de reeks over de toekomst van AI: ‘AI heeft geen stekker meer – Over ethiek in het ontwerpproces’. Waar deel 1 zich voornamelijk focuste op de technologie van AI en deel 2 op de verschillende toekomstscenario’s met AI, gaat deel 3 over ethische vraagstukken die een rol spelen bij de impact van AI op besluitvorming in de toekomst. Er wordt niet alleen gekeken naar welke ethische vraagstukken er rondom AI bestaan, maar ook op welke wijze we in de toekomst tot ethisch verantwoorde AI-toepassingen kunnen komen.
De gehele studie is hier te vinden.
Mooie uiteenzetting over de integratie van ethiek in algoritmes. Een paar opmerkingen:
– of een robot- rechter voldoende objectief is, is volgens mijn een verkeerde vraagstelling. Het gaat er om of een robot / rechter betere vonnissen velt dan de gemiddelde rechter
– ethische regels zouden in het leerproces van lerende algoritmes in gebouwd kunnen worden
– de betrouwbaarheid van een lerend algoritme kan worden vergroot door een onafhankelijk lerend algoritme te ontwikkelen dat de resultaten van het oorspronkelijke algoritme toetst.