We zijn met volle vaart het tijdperk van big data en AI aan het ingaan, maar wat zijn eigenlijk de risico's?
We zijn met volle vaart het tijdperk van big data en kunstmatige intelligentie (AI) aan het ingaan. Denk aan de personal assistents op je smartphone, zoals Alexa, Siri en Google Assistent waar je tegen kunt praten en vragen aan kunt stellen. Aan de productierobot Baxter, zorgrobot Alice en klantenservice assistent Amelia. De intelligente computer heeft een menselijk uiterlijk gekregen. Maar wat gaat er schuil achter de onschuldige glimlach van deze virtuele (meestal) dames?
Data kunnen waardevolle nieuwe inzichten bevatten, maar tegelijkertijd ook oude patronen en vooroordelen. Door AI verliezen data definitief hun onschuld: alles draait om de interpretatie van gegevens en de consequenties die daar door organisaties aan verbonden worden. In zeven vragen bespreek ik de belangrijkste risico’s van AI. Deze presenteerde ik tijdens het jaarcongres van het Instituut van Internal Auditors, IIA. De vragen zijn geformuleerd als ontwerpvragen: hoe kunnen we, hoe kun je de risico’s ervan ondervangen? Dat is de gezamenlijke uitdaging waar ontwikkelaars, bedrijven, burgers en overheden voor staan.
Vraag 1: Wie controleert de algoritmes van kunstmatige intelligentie?
Het voordeel én nadeel van artificial intelligence: Het is zelflerend en zelfprogrammerend. Maar wie controleert wat er eigenlijk gebeurt met data in een algoritme? Met computerprogramma’s kan de kwaliteit van algoritmes getoetst worden, zoals de gemeente Amsterdam doet. Ook kunnen de gebruikte aannames worden geëxpliciteerd en gepubliceerd, zodat deze gecontroleerd kunnen worden door derden. Ook zouden bedrijven, meer dan ze nu doen (vanwege concurrentie), gebruik kunnen maken van elkaars werk, door modules en algoritmen, die goed beschreven en geëvalueerd zijn, te hergebruiken. Zo kunnen best practices worden ontwikkeld waarop kan worden voortgebouwd. Net zoals veel software gebaseerd is op enkele robuuste open source software-codes.
Vraag 2: Hoe houd je controle over AI?
Talloze science fiction films hebben ons laten zien wat kan gebeuren als zelflerende en zelfprogrammerende systemen een eigen logica ontwikkelen en veel slimmer worden dan wij. Een robuuste manier om controle te houden kan zijn om een uitknop in te bouwen, een kill-switch: een noodrem waarmee software stilgelegd kan worden en uitgeschakeld kan worden.
Zou dat verplicht moeten zijn? Laboratoria die synthetische virussen ontwikkelen (zoals het lab van Craig Venter) publiceren tegelijkertijd de code waarmee en anti-virus kan worden gemaakt. Zo wil men een wereldwijde epidemie die talloze levens kan eisen voorkomen. Synthetische virussen zijn ook een soort levende code die zich kan aanpassen aan de omgeving.
Vraag 3. Hoe respecteer je privacy?
Digitale systemen leven van data en het lijkt vrijwel onmogelijk om in zo’n wereld privacy nog te respecteren. Toch is het goed mogelijk om een dienstverlening te ontwikkelen die privacy in beginsel respecteert en beschermt (vaak aangeduid als ‘privacy by design’). Zo kunnen pseudoniemen of anonieme, blanco-profielen ingezet worden om privacy te beschermen. In plaats van data uit te wisselen (te kopiëren van de ene naar de andere aanbieder of computer) kan een bepaalde dienst ook bij elke database een stukje data ophalen, dat verspreid staat over meerdere computers, zonder dat deze worden uitgewisseld, gekopieerd en gecombineerd. Ook het recht om vergeten te worden of met een schone lei te kunnen beginnen, zoals je je internet cookies elke dag kunt weggooien, draagt bij aan meer privacy. Internetbrowser Firefox creëert een nep-geschiedenis om daarmee eveneens privacy te beschermen wanneer een website je geschiedenis met eerder bezochte pagina’s opvraagt. Lees meer in ‘Verbied gratis. Zo moet je privacy beschermen.’
Vraag 4. Hoe bouw je vertrouwen?
Vaak wordt gedacht dat technologie automatisch vertrouwen met zich meebrengt. Zo wordt de blockchain ook wel een ‘trust machine’ genoemd omdat deze bijna niet gemanipuleerd kan worden. Toch weten we uit de sociologie dat vertrouwen veel meer is dan dat: het gaat om de bereidheid te investeren in een langeretermijn relatie, en de gezamenlijke lotsverbondheid aan het succes daarvan: samen uit en samen thuis. Ook belangrijk is de mogelijkheid tot het nemen van ‘wraak’ als een van de partijen het vertrouwen schendt. Hiervoor is een bepaalde mate van gelijkheid nodig: de machtsbalans moet niet te veel doorslaan naar een partij. En dat is nou net wat veel marktpartijen wel creëren met hun systemen: precies weten hoe jij als consument gestuurd kunt worden tot meer aankopen, terwijl jij als consument amper zicht hebt op de werkwijze van bedrijven en amper mogelijkheden hebt om bedrijven of overheden ter verantwoording te roepen. In zo’n geval creëer je geen vertrouwen. Lees ook mijn artikel ’Met alleen een blockchain bouw je nog geen vertrouwen’.
Vraag 5. Hoe kijk je toekomstgericht?
Met historische data heb je kans op vooroordelen en tunnelvisie: ze kijken immers per definitie terug. De kansen van artificial intelligence liggen in anticiperen en in het vroegtijdig signaleren van de opkomst van veranderingen zoals een trend die op doorbreken staat of een tsunami die in ontwikkeling is. AI zal daarom ook nooit een oplossing bieden voor alles. Organisaties moeten de schijnzekerheid die datasystemen bieden durven loslaten en AI gebruiken om vanuit meerdere opvattingen en informatiebronnen prognoses te maken en opties te schetsen waarop organisaties kunnen inspelen. Daarbij kan AI ook gebruikt worden om met input van mensen de toekomst te verkennen, door gebruik te maken van de wisdom of crowds: lees ‘Even googelen wat de toekomst gaat brengen.’
Vraag 6. Hoe kan A.I. mensen aanvullen en versterken in plaats van vervangen?
Een belangrijke vraag is of we AI inzetten om mensen te vervangen door betweterige experts of dat we AI gebruiken om mensen beter te laten presteren, zowel individueel als in groepen. Artificiële intelligentie kan eraan bijdragen dat organisaties op een hoger niveau functioneren op twee manieren. Ten eerste door te zorgen dat grote hoeveelheden data, die steeds meer verzameld worden, hanteer worden voor mensen. AI kan patronen in data herkennen en effecten van keuzes doorrekenen. Zo kunnen mensen betere, evidence based, beslissingen nemen. Ten tweede kan AI processen van het gezamenlijk creëren en beslissen ondersteunen. AI kan de overeenkomsten en verschillen in grote groepen zichtbaar maken en strategieën voorstellen om tot groepsconsensus te komen. Hiervoor worden momenteel modellen ontwikkeld, gebaseerd op groepen bijen of spreeuwen. AI kan heel goed overweg met de complexe voortdurende communicatie en afstemming die nodig is om grote groepen individuen te laten samenwerken en gebruik te maken van de kennis en inzichten die aanwezig zijn in de groep, de “‘wisdom of the crowd’“https://wisdomofthecrowd.nl/startpagina/trends/wisdomofcrowds/. Lees meer in: ‘Hoe kunstmatige intelligentie organisaties op hoger niveau kan laten presteren.’
Vraag 7. Hoe bouw je langetermijnrelaties?
Uit de bovenstaande vragen werd al duidelijk dat AI ons geen hapklare antwoorden gaat serveren op alle vragen. Bepaalde taken en processen in organisaties kunnen drastisch worden geautomatiseerd en efficiënter gemaakt. Wat overblijft zijn complexe morele afwegingen waar organisaties voor staan. Zij kunnen niet afwachten op of zich verschuilen achter overheden die precies aangeven aan welke voorwaarden AI moet voldoen. Organisaties die een langeretermijn relatie aan willen gaan met hun klanten zullen zelf moeten laten zien hoe ze gewetensvol omgaan met alle informatie die zij over hun klanten verzamelen. Laten zien hoe ze afwegingen maken die verder gaan als: zo veel mogelijk proberen te verkopen of zo min mogelijk uit te keren (bij een verzekering bijvoorbeeld). Het vraagt om lastige afwegingen die horen bij het samenleven en waarbij organisaties ook maatschappelijke verantwoordelijkheden dragen. AI zal een groot beroep gaan doen op ons morele besef. Zoals de tv-serie Westworld (HBO) al duidelijk maakte: AI houdt ons mensen een spiegel voor over wie we zelf zijn.
Maurits Kreijveld is futuroloog en adviseert onder meer overheden hoe zij het beste kunnen inspelen op nieuwe ontwikkelingen, zoals digitalisering en de netwerksamenleving.