Robots kunnen veel taken van de mens overnemen en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn. Maar helemaal 'waterdicht' zijn de robots nog niet.
Zelfdenkende robots moeten de mensheid een flinke stap voorwaarts brengen. We worden er nu al mee geconfronteerd. De spraakassistent van onze mobiel is daar een goed voorbeeld van. Via stemcommando’s kunnen wij onze smartphone allerlei taken laten uitvoeren. Robots kunnen veel taken van de mens overnemen (zoals het besturen van onze auto) en beïnvloeden ons gedrag zonder dat wij ons daar bewust van zijn.
Robots kunnen reageren op het gedrag van mensen op basis van de digitale sporen die wij achterlaten. Via ons online klikgedrag, sociale media, smartphone, activiteiten trackers en apparaten met sensoren produceren wij een grote hoeveelheid data in verschillende verschijningsvormen. Met machine learning kunnen computermodellen op basis van zelflerende algoritmes steeds beter onze persoonlijkheid voorspellen. Dat kan zelfs op basis van simpele Facebook likes. Vanaf zeventig likes kent Facebook je beter dan je vrienden.
Drie onderzoekers in de Verenigde Staten ontwikkelden een algoritme, waarmee iemands persoonlijkheid kan worden voorspeld op basis van Facebook likes of Twitter-berichten. Het algoritme voorspelt de scores op basis van de Meyers-Briggs Type Indicator (MBTI) en de Big Five persoonlijkheidstheorie. Deze Big Five theorie beschrijft iemands persoonlijkheid in de volgende dimensies: extraversie, vriendelijkheid, emotionele stabiliteit, ordelijkheid en openheid. Per dimensie kun je hoog, laag of ergens daar tussenin scoren. Een gedetailleerd overzicht van jouw persoonlijkheid kun je op basis van Facebook of Twitter likes en berichten laten voorspellen met deze Facebook and Twitter Prediction tool.
Ik testte de tool uit. Op basis van 3.232 twitterberichten kreeg ik binnen een paar seconden een uitgebreid rapport over mijn persoonlijkheid. De scores van de Big Five en MBTI zijn vrijwel identiek met de uitslagen van testen die ik bij psychologische testen op basis van vragenlijsten heb gedaan. Met het voorspellen van mijn geslacht heeft het computermodel meer moeite: ‘Your digital footprint is fairly androgynous; it suggests you’re probably Male but you don’t repress your feminine side’. Het voorspellen van mijn leeftijd blijkt ook een moeilijke opgave: ‘Your digital footprint suggests that your online behaviour resembles that of a 25-29 years old’. De modellen pretenderen niet de absolute waarheid te voorspellen; zij rapporteren met een zekere waarschijnlijkheid.
Zolang wij die analyses zelf onder ogen krijgen en kunnen relativeren, is er niets aan de hand. Het wordt een ander verhaal als bedrijven en overheden er mee aan de haal gaan. Zo kondigde Facebook CEO Zuckerberg aan dat zijn bedrijf met behulp van Artificiële Intelligentie privéberichten gaat analyseren om terroristische activiteiten op te sporen. Ook denkt Facebook de helpende hand te kunnen bieden bij het voorkomen van zelfmoord onder tieners en bij het tegengaan van pesten op school. Dat klinkt allemaal heel idealistisch, maar inmiddels zijn de data die je via sociale media achterlaat verworden tot handelswaar die bedrijven in staat stelt op basis van persoonlijkheidsanalyse gerichte diensten aan te bieden. Overheden gebruiken persoonlijke data om fraude op te sporen en om misdrijven te voorkomen en op te lossen.
Dat wij niet blind kunnen vertrouwen op ‘zelflerende software’ leerde het experiment van Microsoft met Twitterbot Tay. De bot vergaloppeerde zich in de dialoog met Twittergebruikers en deed allerlei racistische uitspraken. Microsoft heeft daarna het Twitteraccount afgeschermd en de meeste tweets verwijderd. De complexe logica achter algoritmes is vaak nog een ‘black box’ die moeilijk kan worden verklaard. Dit moet veranderen als per 25 mei 2018 de Algemene Verordening Gegevensbescherming (AVG) in werking treedt. De AVG geeft mensen het recht om geïnformeerd te worden over de logica van een advies of besluit van een robot. Bedrijven en overheden moeten transparant worden en hun systemen aanpassen. Softwarebedrijf Pegasystems introduceerde dit jaar als eerste de T-Switch (T van Trust en Transparency), waarmee organisaties controle kunnen uitoefenen op de mate van transparantie van hun Artificiële Intelligentie.