Data en ai
Nieuws

De sleutel voor verantwoorde AI ligt bij interdisciplinair onderwijs

Artificiële Intelligentie (AI) ontwikkelt zich razendsnel en overstijgt landsgrenzen. Hoe leiden we de wereldwijde ontwikkeling van verantwoorde AI in goede banen? Volgens moraalfilosofe Katleen Gabriels (Maastricht University) ligt de sleutel voor morele technologie bij interdisciplinair onderwijs, vertelt ze in een interview met Arine van Heeswijk voor het Rathenau Instituut.

Beeld: De Beeldredaktie

Katleen Gabriels

Katleen Gabriels is moraalfilosofe en gespecialiseerd in computerethiek. Ze werkt als Assistant Professor aan Maastricht University (UM), waar ze sinds augustus 2020 programmadirecteur is van de bacheloropleiding Digital Society. Ze is ook auteur van Regels voor robots. Ethiek in tijden van AI (2019) en Onlife. Hoe de digitale wereld je leven bepaalt (2016). Daarnaast is zij bestuurslid van INSEIT en bestuurslid en plaatsvervangend voorzitter van ETHICOMP, twee internationale academische organisaties rond computerethiek. In 2018-2019 werd de Leerstoel Willy Calewaert aan haar toegekend door de faculteit Ingenieurswetenschappen van de Vrije Universiteit Brussel.

Wat is de belangrijkste les over AI die je ons wilt meegeven?

‘Daar kan ik heel kort over zijn: we moeten leren dat AI-modellen níet neutraal zijn. Het verbaast mij nog altijd hoeveel mensen veronderstellen dat technologie neutraal is, enkel om het feit dat er een wiskundig model achter zit dat geautomatiseerde beslissingen neemt. Technische ontwerpen zitten vol met morele keuzes en afwegingen, gemaakt door de ingenieurs die ze ontwikkelen. Dat maakt ethiek ook zo’n belangrijk onderdeel van techniek. We onderschatten dat nog te vaak en redeneren dat technologie – afhankelijk waarvoor zij wordt ingezet – goed of slecht kan worden gebruikt. Maar er is bij computertechnologie altijd sprake van verborgen moraliteit.

Ingenieurs nemen soms, onbewust en zonder slechte bedoelingen, zichzelf als norm wanneer ze technologie ontwerpen. Daar zit een risico. We kennen allemaal het automatische handzeeppompje op openbare toiletten. Op het eerste gezicht een handige en hygiënische oplossing: je houdt je hand onder het pompje en zonder iets aan te raken valt er wat zeep in je handpalm. Totdat een aantal zwarte mannen een filmpje maakten waarin te zien is dat het zeeppompje niet werkt bij donkere handen. De lichtsensoren bleken alleen te reageren op lichte kleuren, zoals een witte tissue of witte handen. Er was bij de ontwikkeling alleen getest met witte handen.’

In zo’n geval kom je er – hoe pijnlijk ook – vrij eenvoudig achter dat een toepassing anders bedoeld is.

‘Dat klopt. Maar in het domein van algoritmes die schijnbaar neutrale zoekresultaten tonen of uitkomsten genereren, wordt het al veel ingewikkelder om ongewenste effecten op te sporen. En dat geldt zeker ook voor machine learning, waarbij sprake is van zelflerende algoritmes. Machine learning wordt vaak gebruikt om aan de hand van data voorspellingen te doen over menselijk gedrag, wat überhaupt ongelofelijk complex is. En het is dus nog veel moeilijker om te achterhalen of er geen bias optreedt, ofwel een vertekening door een ingebouwd vooroordeel.

Nu ben ik absoluut niet tegen technologische vooruitgang, maar ik zie die vooruitgang graag gelijk opgaan met ethische vooruitgang. Het is belangrijk dat er meer wordt gesproken over die verborgen moraliteit bij technologie. Daar moet ook in het onderwijs meer aandacht voor komen.’

Ethische vraagstukken over digitale technologie staan pas vrij recent in het middelpunt van de belangstelling – komt de discussie eigenlijk te laat?

‘De digitalisering van de samenleving heeft een enorme vlucht genomen. Het World Wide Web bestaat sinds 1989 en met name de introductie van de iPhone in 2007 is een enorme trigger geweest die ervoor zorgde dat slimme technologie een vast onderdeel werd in ons persoonlijke leven. Dat is pas dertien jaar geleden. Van een dertienjarige zeggen we ook dat het nog een kind is. Vanuit dat perspectief bezien, is het niet vreemd dat wij nog veel moeten ontdekken over de ethiek van technologie.

Tegelijkertijd is het afschuwelijk dat zaken als privacy en AI niet al veel langer hoog op de agenda staan. Privacy lijkt nu soms te worden gezien als strategische trend om op mee te liften. Daar heb ik grote moeite mee. Privacy is iets wezenlijks, het is opgenomen in de verklaring van de rechten van de mens. Dat is niet nu pas ineens belangrijk. Ik hoop dan ook dat AI, en de digitalisering van de samenleving in brede zin, veel meer verkiezingsthema’s gaan worden. Politici horen we daar nu nog te weinig over.

Recente schandalen maken de discussie over de ethische aspecten van AI weer actueel. De wanpraktijken van Cambridge Analytica, en de rol van Facebook daarin, werden uitvoerig beschreven in de media en leidden tot een brede maatschappelijke dialoog. Dat is bemoedigend, omdat behalve academici, ook burgers, politici en bedrijven zich nu uitspreken en mengen in de discussie. En hoewel ik blij ben met alle aandacht voor ethische vragen, bekruipt mij toch tegelijkertijd het gevoel dat academici het warm water steeds opnieuw willen uitvinden. Computerethiek gaat al terug tot in de jaren zeventig in Amerika. En zelfs voor die tijd werd al publiekelijk gewezen op de morele verantwoordelijkheid van ingenieurs.’

Waar doel je op?

‘Norbert Wiener, wiskundige en vader van de cybernetica, is een heel belangrijke figuur geweest. Een wonderkind dat op zijn zestiende afstudeerde aan Harvard. In nasleep van de oorlog en het geheime Manhattanproject (red. project dat leidde tot de ontwikkeling van de atoombom waar veel prominente wetenschappers waaronder Einstein bij betrokken waren), startte Wiener in 1947 met het rondsturen van brieven en publiceerde hij een uitgebreid artikel in The Atlantic over de maatschappelijke verantwoordelijkheid van ingenieurs. In 1950 werd Wieners boek The Human Use of Human Beings uitgebracht, waarin hij al sprak over de ethische gevolgen van de automatic age. Zijn boodschap: ga uit van rechtvaardigheid als belangrijkste waarde en stel de mens altijd voorop.

Hemeltergend dat we niets meer lezen van Wiener als het gaat over het Europese kader voor AI waarin een mensgerichte aanpak centraal staat. Die benadering is niet nieuw, daar is een hele geschiedenis aan vooraf gegaan. En de vraagstukken van toen spelen nu nog. We moeten niet vergeten om te kijken naar wat er al allemaal ligt en daar op voortborduren.’

Welke rol spelen ethici hierin?

‘Filosofen en ethici hebben te lang hun mond gehouden. Wij zijn niet proactief het gesprek aangegaan om de morele vragen die spelen bij technologische toepassingen bespreekbaar te maken. Daar ligt een taak voor ons, zeker in het onderwijs. Dan pak je het probleem bij de wortel aan.’

Welke concrete stappen moet het onderwijs nu zetten?

‘Het onderwijs moet uit de silo’s komen. De uitwisseling van disciplineoverstijgende kennis moet je inbedden in het curriculum. Een collega van mij zei het heel mooi: ken jij één grote mondiale uitdaging die maar binnen één discipline zit? De klimaatuitdaging is interdisciplinair, dat geldt ook voor verantwoorde AI.

Privacy lijkt nu soms te worden gezien als strategische trend om op mee te liften

Vakgroepen hebben de neiging hun eigen winkeltje te verdedigen en zijn bang voor verarming van hun vak. Je hebt binnen een jaar slechts een aantal ECST (studiepunten). Als er een vak bijkomt, valt een ander vak weg. Dan blijkt dat iedereen een voorkeur voor zijn eigen specialistische vakken heeft. De grote algemene kritiek op interdisciplinair onderwijs raakt daar ook aan; dat de diepgang van een vak ermee verloren gaat. Specialistische kennis blijft nodig, maar dat mag geen reden zijn om kruisbestuiving tussen faculteiten uit de weg te gaan.’

Hoe staan we ervoor in Nederland – en in de rest van de wereld?

‘Nederland is een gidsland waar al een langere traditie bestaat van interdisciplinair onderwijs. De vier technische universiteiten hebben allemaal een vakgroep filosofie die ten dienste staat van de rest van de universiteit. Het hangt ook altijd samen met mensen. We zien dat de kartrekkers vaak zowel alfa als bèta zijn, mensen die per definitie al denken vanuit verschillende disciplines. Dan wordt de stap naar interdisciplinair onderwijs makkelijker gemaakt. En met meer vertrouwen en minder angst om diepgang te verliezen.

In België – waar ik vandaan kom – staat techniekfilosofie nog in de kinderschoenen. In 2018-2019 bekleedde ik de Calewaert Leerstoel in Brussel en gaf ik ingenieursstudenten les in moraalfilosofie. Het was pijnlijk om te merken dat het voor hen de eerste keer was dat zij spraken over filosofische vragen rondom techniek. In Amerika bestaan wel vakken over computerethiek, en daar is ook interesse in de Nederlandse onderwijssamenwerking.

In 2018 bracht ik een werkbezoek aan de Purdue University (red. Amerikaanse universiteit met sterk ruimtevaartprogramma waar Neil Armstrong studeerde), om te praten over hoe het interdisciplinair onderwijs eruit ziet in Nederland. Veel vragen gingen over financiering. Die afwegingen spelen ook bij Nederlandse vakgroepen. Maar je hebt geen miljoen nodig om eens één interdisciplinair vak te geven met een onderwijsteam. Gewoon beginnen is de eerste stap. Ik geloof zeker dat de sleutel voor morele AI ligt bij het onderwijs. En hoewel Nederland in de voorhoede zit, kunnen ook hier dingen beter.’

Wat is jouw ervaring met studenten die interdisciplinair onderwijs krijgen: hoe vinden ingenieurs het om les te krijgen in moraalfilosofie?

‘Heel eerlijk? De eerste reactie van 18-jarige studenten is vaak: waarom moeten wij iets leren over ethiek. Dat zijn toch maar meningen? Wat daar veelal onder ligt, is de angst voor het onbekende.
Het is bekend dat veel alfa’s bang zijn voor statistiek. Datzelfde mechanisme zie je ook bij ingenieurs. Bèta’s redeneren van nature eerder binair en denken dat problemen terug te brengen zijn tot enen en nullen. Van die visie moeten we echt af op technische universiteiten. Het is een simplificatie van de werkelijkheid, de wereld is niet binair.

Over die complexiteit kunnen filosofen het nodige inbrengen. Al wil ik niet onvermeld laten dat het beeld van filosofen die functioneren als een morele jukebox natuurlijk niet klopt. Dat zouden veel bèta’s graag zien, een beslissingsboom die de morele weg wijst.

Eén van de leukste lessen ooit gaf ik aan datawetenschappers aan de UM. Het ging over de AVG en de verplichting om uit te kunnen leggen hoe een algoritme werkt. Studenten schrokken daar in eerste instantie van en reageerden vijandig en vroegen zich hardop af waarom dat relevant was en of zij dan hun analyses moesten delen. Maar door ze kritisch te laten nadenken, sloeg hun opstelling om en werden ze juist heel enthousiast. Ze beseften dat hun werk middenin de samenleving staat. Dat aspect ontbreekt nu te vaak bij bèta’s en verdient extra aandacht.’

Hoe doe je dat concreet; ethische kwesties bespreekbaar maken in jouw lessen?

‘Door actualiteiten in te brengen die de relevantie en de link met hun vakgebied duidelijk maken. Zo gebruik ik het Amerikaanse verkiezingsschandaal met inmenging van Cambridge Analytica en Project Maven om te bespreken hoe ingenieurs kijken naar een begrip als separatisme. Is er sprake van een strikte scheiding van verantwoordelijkheden, ingegeven vanuit de gedachte dat een techneut slechts vervaardigt en niet verantwoordelijk is voor wat er gebeurt met de techniek? Of heb je daarin een eigen verantwoordelijkheid? Een ander bekend fenomeen dat ik vaak bespreek met mijn studenten gaat over ‘the problem of many hands’. Omdat er bij de ontwikkeling van AI vaak verschillende mensen betrokken zijn, is het soms nagenoeg onmogelijk om redelijkerwijs één verantwoordelijke te identificeren. We moeten studenten trainen om de juiste vragen te stellen.’

Wat zijn jouw ambities hierin?

‘In Maastricht start ik dit academiejaar (red. 2020) als programmadirecteur van de opleiding Digital Society, een nieuwe en actuele Engelstalige interdisciplinaire bachelor tussen humane, sociale en computerwetenschappen. Het is de eerste bachelor in zijn soort in België en Nederland. We leren onze studenten technische skills als programmeren en combineren dat met filosofische, historische en andere vakken. De studie is heel populair, we starten met 120 studenten van 28 nationaliteiten. Een van mijn wensen is om de studenten datawetenschap meer in contact te laten komen met onze Digital Society-studenten. Ik wil dat zij sámen een vak volgen. Om elkaars leefwereld beter te leren begrijpen en zo meer inzicht te krijgen in elkaars manier van denken. Ook wil ik mij inspannen om goede samenwerkingen aan te gaan met partners uit de publieke en private sector voor interessante stageplekken.’

Wat zou je graag terugzien in de mondiale aanbeveling door UNESCO over de ethiek van AI?

‘UNESCO is bij uitstek de partij om op het gebied van onderwijs internationale richtlijnen te presenteren. Maar alleen een code of aanbeveling is niet genoeg. Als landen afspraken niet nakomen, moeten daar consequenties aan vastzitten (red. lidstaten die de aanbeveling in november 2021 ondertekenen moeten elke twee jaar rapporteren over hun inspanningen). Ook vind ik het belangrijk om te benadrukken dat ethische vragen niet pas in het hoger onderwijs aan bod dienen te komen. Dan zijn we echt te laat. Al in de kleuterklassen moeten we starten met mediawijsheid. Die doelgroep kijkt al vaak YouTube-filmpjes die worden onderbroken door reclame, of waar reclame in verwerkt zit. Daar kun je spelenderwijs met ze over praten en kinderen al op jonge leeftijd weerbaar maken.

En als ik zie hoeveel belangstelling mijn neefjes van vier en zes hebben voor robots, dan is er zo een brug gemaakt naar een gesprekje over wat robots zijn, en of die kunnen denken en voelen.
Waarom zou je wachten met die vragen totdat ze aan een hogere opleiding beginnen?
Sterker nog, waarom zou je deze vraagstukken alleen bespreken met hogeropgeleiden? Dat vind ik heel elitair. Zeker als je nadenkt over vragen rondom de smartphone, waar bijna iedereen mee rondloopt. Als je de ethische kwesties van technologie alleen bespreekt in het hoger onderwijs, mis je heel veel mensen.’

Amen.

‘Ja ik voel mij vaak een dorpspastoor als ik met studenten praat over de morele kant van techniek. Gelukkig kan ik altijd teruggrijpen naar een interview met de uitvinder van de iPhone, Tony Fadell. Die gaf toe wel eens badend in het zweet wakker te worden, omdat hij zich afvraagt of hij nou wel zo’n goede uitvinding heeft gedaan. Hij en zijn team waren in de twintig , zonder partner of kinderen. Het iPhone-ontwerp is dan ook erg gericht op het individu. Ondertussen is Fadell een stuk ouder, heeft hij een vrouw en drie tienerkinderen en ondervindt hij aan den lijve hoe problematisch het gebruik van zo’n toestel kan zijn voor een gezin. Hij pleit nu voor een eed van Hippocrates, vergelijkbaar met die van artsen, waar ontwikkelaars in een eed moeten zweren geen schade toe te brengen aan de maatschappij. Maar met alleen zo’n eed zijn we er niet, vrees ik, als dorpspastoor.’

Ethiek en AI

Dit verhaal, dat eerder verscheen op de website van het Rathenau Instituut, is geplaatst in het kader van de internationale aanbeveling van de UNESCO over ethiek en Artificiële Intelligentie (AI) . Het Rathenau Instituut is aangewezen als nationaal waarnemer bij de totstandkoming van die internationale aanbeveling. De komende maanden vraagt Rathenau inspirerende denkers, zoals Katleen Gabriels, naar hun ideeën; welke aspecten vinden zij van belang voor deze internationale discussie?

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren