Hoe houd je de balans tussen AI, big data en ethiek?

door: Thamar Zijlstra, Marlou Bijlsma en Mark J. Ryan, 4 september 2018

Artificiële intelligentie (AI) en big data krijgen een steeds grotere rol in onze maatschappij. Dit brengt voordelen met zich mee, maar heeft ook risico’s voor onze maatschappij, ethische normen en waarden, en mensenrechten. Hoe moeten overheden hiermee omgaan?

telefoon

Beeld: Pixabay/Free-Photos

Hoewel veel overheden wereldwijd nog aan het begin staan van het toepassen van AI-technologieën, wordt er al veel geëxperimenteerd en is de potentie groot. De toepassing van Smart Information Systems (SIS, ofwel AI en big data) kan een positieve bijdrage leveren aan maatschappelijke vraagstukken. Door nieuwe technologie is er meer data beschikbaar en is deze ook sneller beschikbaar. Met een grotere beschikbaarheid van data, kunnen beter geïnformeerde keuzes worden gemaakt. Me behulp van artificiële intelligentie kunnen deze data worden geanalyseerd en beslissingen worden genomen die aansluiten bij een beleidsdoel. We kunnen geluidsoverlast, luchtkwaliteit, verkeersstromen, energieconsumptie, afval, criminaliteit en veiligheid monitoren met nieuwe technologieën. Met deze informatie kan sneller en beter geïnformeerd worden gehandeld. Maar aan het gebruik van deze technologische innovaties kleven mogelijk ook ethische en mensenrechtelijke bezwaren.

Ethische en mensenrechtelijke implicaties zijn heel concreet

Bespreek het maar eens bij de lunch met uw collega’s: wie zou het fijn vinden om door de school van zijn kinderen te worden gebeld met de mededeling dat op basis van data-analyse wordt verwacht de je kind schoolverlater zal worden? En zou het niet bijzonder handig zijn als de politie een zelfrijdende auto kan ‘hacken’ en zo een verdachte naar het politiebureau kan laten rijden? Geen wilde achtervolgingen meer op de snelweg. Het levert interessante discussies op waarbij verschillende belangen en waarden tegen elkaar moeten worden afgewogen.

Er zijn wel al enkele wettelijke kaders, bijvoorbeeld de Algemene Verordening Gegevensbescherming (AVG). Dat privacy een issue kan zijn bij toepassing van nieuwe IT-technologie is al enigszins bekend. Privacy gaat over meer dan alleen persoonlijke data. Bodyscanners kunnen veel blootgeven over de medische conditie van mensen (bijvoorbeeld implantaten).

Maar er zijn nog meer ethische principes waar rekening mee moet worden gehouden:
• Vooroordelen (bias) in bestaande data worden uitvergroot als ze worden gebruikt in algoritmes, en kunnen leiden tot scheve conclusies.
• Heeft iedereen gelijke toegang? Niet alle burgers hebben even veel financiële middelen of IT-competenties om mee te kunnen doen met de nieuwe ontwikkelingen. Hoe zorg je ervoor dat de verschillen in de samenwerking niet groter worden?
• Gegevens over fysieke activiteiten, zoals stappentellers, kunnen worden gebruikt om mensen te stimuleren gezonder te leven, maar tasten de autonomie van de mens aan. Wanneer gaat een beleidsdoel boven deze autonomie? Met data kunnen burgers worden ‘genudged’ met het risico van manipulatie.
• Gegevensbestanden zijn kwetsbaar voor hackers en gegevensbestanden kunnen worden vervuild en aanleiding geven voor ‘fake news’.
• Burgers voelen zich mogelijk ook bespied als alles wordt gemonitord.

Maatschappelijke acceptatie

Er zijn geen kant-en-klare methoden waarmee een overheid deze dilemma’s kan afwegen. De technologische ontwikkelingen gaan snel en overheden zien de kansen die nieuwe technieken kunnen bieden. Maar als ethische of maatschappelijke controverses eenmaal aan het licht komen, dan is het lastig om de techniek te blijven toepassen. Het belang van een ethische assessment is niet alleen principieel, maar ook pragmatisch: voor een succesvolle acceptatie van de technologie is het van belang om ethische aspecten in ogenschouw te nemen. Op het moment dat een technologie maatschappelijk niet wordt geaccepteerd, dan is de gedane investering voor niets geweest.

Vaak zijn er binnen organisaties wel enkele medewerkers die bewust zijn van de ethische implicaties van een nieuwe technologie. Maar hoe maak je uitvoerende medewerkers bewust van de ethische aspecten van de technologie die hen helpt bij het uitvoeren van hun werk? Als zij zich hier al van bewust zijn, dan hebben ze het liefst een concreet handelingsperspectief. En deze concrete handelingsperspectieven zijn nog niet voorhanden.

Ook is het bij de ontwikkeling van AI en big data toepassingen belangrijk om burgers te betrekken. Het is belangrijk om scherp te hebben voor wie en met welk doel een technologie wordt ontwikkeld zodat deze ook echt het maatschappelijke doel dient.

Wetgeving in ontwikkeling

In veel landen wordt op dit moment een beleid voor AI ontwikkeld. In onder meer Zweden, Groot-Brittannië, Frankrijk, Finland, Duitsland en de Verenigde Staten is beleid in ontwikkeling of al gepubliceerd. Veel van dit beleid is erop gericht om koploper te worden in AI door de ontwikkeling van kennis en competenties, maar heel vaak is een onderdeel ervan dat er ook ethische kaders worden ontwikkeld. Ook de Europese Unie zal beleid ontwikkelingen, in afstemming met de lidstaten, dat zich bezig moet houden met het vergroten van de AI capaciteit, de sociaal-economische implicaties van beleid, en een juridisch en ethisch raamwerk.

SHERPA-project

NEN, Universiteit Twente en negen andere Europese organisaties werken samen aan de verkenning van het landschap en ontwikkelen van concrete tools voor ethiek, AI en big data. Dit wordt gedaan in het kader van het SHERPA-project.. Deze partners hebben financiële ondersteuning ontvangen vanuit het H2020 Research and Innovation programma van de Europese Unie. Het project is gestart op 1 mei 2018 en heeft een looptijd van drieënhalf jaar. De projectpartners brengen verschillende inzichten bij elkaar, vanuit onder meer universiteiten, bedrijfsleven, ngo’s en ethische commissies.

Het SHERPA-project zal onderzoeken hoe slimme informatiesystemen (SIS, dat wil zeggen de combinatie van artificiële intelligentie en big data-analyse) van invloed zijn op ethiek en mensenrechten. In dialoog met belanghebbenden zal het project nieuwe manieren ontwikkelen om uitdagingen rondom ethische kwesties en mensenrechten te begrijpen en aan te pakken. Op die manier kunnen er verantwoorde en duurzame oplossingen worden gevonden, die zowel de innovators als de maatschappij ten goede kunnen komen.

Het doel van dit project is het in kaart brengen van ethische en mensenrechtelijke kwesties van deze Smart Information Systems (SIS) en het ontwikkelen van praktische tools hoe hiermee om te gaan. De Universiteit Twente houdt zich met name bezig met het inhoudelijke onderzoek naar cases en scenario’s. Dit moet een overzicht geven van de stand van zaken en een blik werpen op de toekomst. NEN zal aan de slag gaan met de haalbaarheid van normontwikkeling voor ethische aspecten van AI en big data. NEN gaat daarom onderzoeken hoe normen kunnen bijdragen aan een verantwoorde en duurzame ontwikkeling van AI en big data.

Praktische methoden in ontwikkeling

Er zijn nog weinig methoden voor handen waarmee een ethische toetsing kan worden gedaan. Voor privacy zijn inmiddels wel enkele assessment methoden ontwikkeld, maar voor de andere ethische principes bestaan die nauwelijks. In een eerder Europees project hebben de Universiteit Twente en NEN een Europese norm ontwikkeld voor een ethische commissie en een ethische impact assessment. Het idee achter de norm is dat als je een goed proces inricht, de uitkomst ook goed is. Dus een ethische commissie met de juiste mensen en de juiste procedures zal een goed besluit nemen. Bij elke innovatie kan een ethische commissie een toets doen. Deze norm is kosteloos verkrijgbaar via NEN.

Binnen het SHERPA-project zal voor AI en big data specifiek een aantal tools worden ontwikkeld. Er worden informatieve filmpjes, live webinars en een artistieke uiting aangeboden voor bewustwording. Ook zal worden verkend of organisaties die normen ontwikkelen kunnen helpen bij het verantwoord omgaan met AI en big data.

Meedoen?

Bij veel van de onderdelen van het SHERPA-project zijn stakeholders betrokken. Zo worden op dit moment scenario’s ontwikkeld voor een aantal sectoren. Deze scenario’s worden ontwikkeld door een kleine groep belanghebbenden, maar later becommentarieerd door een grotere groep. Het gaat om scenario’s in de volgende werkvelden: onderwijs, militaire toepassingen, rechtshandhaving en gezondheidszorg. Ook zal er een online survey worden uitgezet, Ook worden er webinars georganiseerd waar iedereen aan kan deelnemen. Bovendien ontwikkelen we een strategie voor normalisatie. waarvoor input van belanghebbenden nodig is. Deelname aan de het stakeholdernetwerk geeft u de mogelijkheid uw ervaringen en dilemma’s te bespreken met andere ervaringsdeskundigen én met de filosofie experts. Via de SHERPA-nieuwsbrief blijft u op de hoogte van de ontwikkelingen. U kunt zich aanmelden voor dit stakeholder netwerk via de website. Ook kunt u zich daar aanmelden voor de nieuwsbrief.

Meer informatie?

Website SHERPA-project

Thamar Zijlstra is consultant normontwikkeling bij NEN, Marlou Bijlsma is consultant normontwikkeling bij NEN, Mark J. Ryan is onderzoeker aan de afdeling filosofie van de Universiteit Twente.

tags: , ,

- - - - -

De met een * gemarkeerde velden zijn verplicht. U ziet eerst een voorbeeld en daarna kunt u uw bijdrage definitief plaatsen. Uw e-mailadres wordt niet op de site getoond. Reacties zonder achternaam worden verwijderd. Anoniem reageren alleen in uitzonderlijke gevallen in overleg met de redactie.