Gezichtsherkenning, oprukkende algoritmen, een noodwet die de privacy beperkt: we gaan stilaan aardig richting Big Brother.
Er begint zo langzamerhand kritiek te ontstaan over de surveillancemaatregelen en verdere inperkingen van fundamentele rechten die zijn en worden getroffen ter bestrijding van het coronavirus.
All lives matter? Bij een tweede golf en capaciteitsproblemen op de intensive care (IC) gaan jongeren voor. Maar ook obese, rokende jongeren? Wie bepaalt dat, op grond van welke informatie en hoe is die verkregen? Door eerder ingevoerde surveillancedata, door een perfecte nabijheidsapp? Jongeren tot 18 jaar hoeven zich niet te storen aan nabijheid, bij achttien jaar wordt een messcherpe lijn getrokken, een jongere van negentien dient op afstand te blijven. Hoeven zij geen app te downloaden en hoe zit het met de inmiddels grote groep van immune ex-geïnfecteerden?
Dit soort bepalingen staan naar alle waarschijnlijkheid in het nog niet openbare voorstel voor een coronanoodwet waar de Raad van State, de Raad voor de Rechtspraak, de Autoriteit Persoonsgegevens en de Nijmeegse hoogleraar Bart Jacobs zich al kritisch over hebben uitgelaten. Daarnaast heeft de RIVM de wens geuit data van mobiele telefoons, let wel in algemene zin, te mogen volgen om te zien hoe de bevolking zich verplaatst zodat de GGD bij een eventuele uitbraak van corona (of eventueel een toekomstig virus?) op tijd kan worden gewaarschuwd. Ook de opsporingsinstanties schijnen voor zo’n app belangstelling te hebben.
En dan die corona-app zelf. De eerste poging tot ontwikkeling van de app in Nederland door middel van die belachelijke Appathon is natuurlijk jammerlijk mislukt. In welk ambtelijk gemankeerd brein is het idee ontstaan dat in een week tijd, een veilige en privacy bestendige track-en trace app zou kunnen worden ontwikkeld? Bij een discussie – over deze app, de benutting van digitale techniek en andere maatregelen ter bestrijding van het virus – georganiseerd door de School of Governance van de VU en Pakhuis de Zwijger, waar onderzoekers en vertegenwoordigers van de overheid aan deelnamen, heb ik mijn twijfels nogmaals uitgesproken over de haalbaarheid van een privacybestendige app.
Daarnaast benadrukte ik dat de betrouwbaarheid van zulke maatregelen ernstig valt te betwijfelen. Bluetooth, de basis van de ‘Google’ app, doet het bij mij nog op vijftien meter afstand; nauwelijks een afstand die enig risico voor besmetting oplevert. Verder geeft het bij de bevolking enerzijds een vals gevoel van veiligheid en anderzijds een Big Brothergevoel in geval van (semi) verplichting. Dit soort technologie wordt daarenboven altijd ontwikkeld in public-private partnerships. Google is geen charitatieve instelling en heeft niet de naam keurig om te gaan met privacy. Google is gericht op geldelijke gewin. De ontwikkeling van de app roept zorgen op: Wie houdt de intellectuele eigendom en toegang tot de source code van deze app? Waarom die app niet doorontwikkelen en combineren met gezichtsherkenning? Altijd handig voor Justitie en de veiligheidsdiensten.
Er is al een onderneming die stelt ook gezichten, voorzien van gezichtsmaskers, te kunnen identificeren. De gevaren en positieve kanten van gezichtsherkenning zijn recentelijk geïnventariseerd door een groep onderzoekers van de Universiteit Tilburg. Een van de conclusies was dat ‘function creep’ op de loer ligt. Ook al is duidelijk aangegeven welke positieve doelen, zoals toegangsbeveiliging, loyalty programma’s, cliëntgerichte service of herkenning van met virus besmette personen kunnen worden nagestreefd. Het kan aantrekkelijk zijn niet aangegeven toepassingen te benutten. Gelijk met gezichtdetectie kan ook een emotionele of psychische situatie van een natuurlijke persoon worden weergegeven waaraan gevolgen worden verbonden die door het gebruik van kunstmatige intelligentie tot bepaalde conclusies en besluitvorming kunnen leiden. Met alle gevolgen van dien. De interpretatie van gelaatsuitdrukking is geen science fiction en kan leiden tot verdenkingen door politie, afwijzen van sollicitanten of de constatering dat het een waarschijnlijk en met virus besmette persoon betreft. Ook het Nederlandse justitieel apparaat maakt gebruik van zekere kunstmatig intelligente programma’s die een waarschijnlijke recidive van criminelen kan bepalen. In de VS zijn hierover ernstige twijfels uitgesproken, maar het door de Amerikaanse rechter verworpen Compass systeem wordt daar nog steeds toegepast. Het is immers best makkelijk om de verantwoordelijkheid voor een besluit over te laten aan een algoritme.
Het gevaar is dat algoritmen die werken met bestaande datasets maatschappelijke vooroordelen en morele aannames zullen bevatten die een ongewenst resultaat kunnen opleveren, terwijl de indruk wordt gewekt dat die algoritmen de garantie vormen voor objectieve beslissingen. Naarmate er meer wordt vertrouwd op dit soort besluitvorming door overheid, commercie en de burgers zelf, ontstaat er een kunstmatige werkelijkheid gebaseerd op statistieken en codes die onze samenleving zullen inrichten. Een gezonde kritische houding van de bevolking, inclusief het parlement tegenover beleid, wetgeving en besluitvorming gebaseerd op camerabeelden, metadata, codes, statistieken en waan van de dag, is essentieel om de samenleving te behoeden voor onwenselijke ontwikkelingen.
Een noodwet die de registratie van onze bewegingen legitimeert, de vrijheid van vereniging en vergadering beperkt en de privacy in algemene zin beperkt, gebaseerd op statistieken en onzekere ontwikkeling van een bestaande – of nog eventueel te verwachten – epidemie of terroristische aanslag, is gebaseerd op aangejaagde angst. De vraag: waar kiest u voor, gezondheid of veiligheid; mag nooit door de overheid worden gesteld. De overheid heeft de plicht om te zorgen voor de bescherming van al onze fundamentele rechten.
Vooralsnog gedraag ik mij hier in Italië volgens de regel: ‘When in Rome do as the Romans do’; draag het mondkapje op de kin zodat het op tijd naar boven kan worden verplaatst wanneer de Carabinieri binnenkomen.
Rob van den Hoven van Genderen is hoogleraar AI & Robotlaw aan de universiteit van Lapland en voorzitter van de Nederlandse Vereniging voor Artificiële Intelligentie en Robotrecht (NVAIR)