De vrees voor misbruik van de CoronaMelder door de staat is overdreven. De achilleshiel is en blijft de mens, ook bij deze app.
De CoronaMelder wordt door velen nog met scepsis en wantrouwen bejegend. Het past in de bredere discussie rond het gebruik van technologie en algoritmes door de overheid. Er wordt een angstbeeld gecreëerd rond de app, waarbij Nederland zou veranderen in een Orwelliaanse surveillancestaat waarin algoritmes het voor het zeggen hebben.
Nederland is echter geen China. Technologie kan in een totalitair systeem leiden tot een versterking van de controle, maar dit is niet hoe ons systeem werkt. De overheid is bij de inzet van technologie gebonden aan wet- en regelgeving. Privacy en mensenrechten moeten gewaarborgd zijn en discriminatie mag nooit. Ook moet er een juridische basis zijn voor het gebruik van technologieën zoals de CoronaMelder. Na kritiek van de Autoriteit Persoonsgegevens komt er dan ook een wet om de inzet van de app goed te regelen.
Overheden moeten daarnaast uitleg kunnen geven over hoe zij tot een besluit komen of – wanneer transparantie niet gewenst is – aantonen dat er rechtmatig en billijk gehandeld is. Wordt niet aan deze voorwaarden voldaan, dan kan de rechter het gebruik van het algoritme verbieden, zoals eerder dit jaar is gebeurd bij SyRI (Systeem Risico Indicatie).
De vraag of we toepassingen als de CoronaMelder of algoritmes ook ethisch vinden, is van een andere orde. Dat gaat niet zozeer over de technologie, maar over hoe we die gebruiken.
Een systeem is uitstekend in staat grote hoeveelheden data te analyseren om statistische patronen en verbanden te herkennen die wij niet zien. Wat daar vervolgens mee gebeurt, is in vrijwel alle gevallen aan de mens. Zo kan de CoronaMelder vrij nauwkeurig aangeven of u in aanraking bent gekomen met het virus. De keuze – en de ethische afweging – om u vervolgens op basis hiervan al dan niet vrijwillig in quarantaine te plaatsen, is in dit geval aan de politiek.
Dat is niet anders dan nu, alleen kan met de CoronaMelder een meer weloverwogen en beter onderbouwd besluit genomen worden. Het nemen van ethisch verantwoorde beslissingen is dan ook aan de mens, en niet aan algoritmes of systemen.
In veel van de gevallen waarvan we achteraf stellen dat er onethisch is gehandeld, zoals bij de Belastingdienst, was dat het gevolg van menselijk handelen. Zoals het onjuist of zelfs onwettig gebruik van data, maar bovenal het onterecht en mogelijk moedwillig interpreteren van zachte signalen als hard bewijs. Daardoor zijn op basis van niet meer dan vermoedens ten onrechte toeslagen stopgezet, waardoor burgers in de problemen kwamen.
Achilleshiel bij het gebruik van technologie en algoritmes is en blijft de mens. Dat begint al bij het ontwerp. Bij het gebruik van algoritmes moet goed worden nagedacht over het doel ervan en de data die ervoor nodig zijn. De werking van het algoritme wordt immers in grote mate bepaald door menselijke ontwerpkeuzes of bias (vooringenomenheid) in de data. Ontwikkelt de Belastingdienst een algoritme dat bepaalde groepen stigmatiseert, dan is dat algoritme niet meer dan een reflectie van onze eigen vooroordelen.
Om dat te voorkomen moeten ingrijpende algoritmes getoetst en beproefd worden. Bijvoorbeeld aan de hand van een onafhankelijk toetsingskader of door kritische burgers en experts erbij te halen, zoals bij de ontwikkeling van de CoronaMelder. Door transparant te zijn over het gebruik en dat waar nodig te toetsen, helpen algoritmes juist bestaande vooroordelen bloot te leggen en keuzes expliciet te maken.
Het is aan de mens om kritisch te reflecteren op deze keuzes. Technologie als de CoronaMelder is nooit een doel op zich, maar altijd een middel. Hoe we dat middel inzetten, is aan ons. De CoronaMelder helpt ons betere beslissingen te nemen om het virus in te dammen en algoritmes zijn bij goed gebruik een verrijking van ons eigen afwegingskader, ter vervanging van de onderbuik.
Christian Verhagen is senior adviseur bij Verdonck, Klooster & Associates en publiceert regelmatig over data en technologie in de publieke sector.
Deze bijdrage verscheen eerder in het Parool (3 september) en de Leeuwarder Courant (14 september).
Mooi verwoord. Helemaal mee eens.
Wat het onafhankelijk toetsingskader betreft zou ik dat anders formuleren. Een algoritme moet voldoen aan kwaliteitseisen (betrouwbaarheidseisen). Net als de AVG een wettelijk kader is voor het gebruik van data, moet er een wettelijk kader komen voor de ontwikkeling en het gebruik van algoritmes. Bijvoorbeeld door het verplichtstellen dat, tegelijk met het ontwerp van een algoritme, een toetsingskader (vaak ook gebaseerd op een algoritme) moet worden ontworpen. Ook zou verplicht een beschrijving van de functionaliteit moeten worden gepubliceerd. De functionaliteit van een algoritme mag dus geen bedrijfsgeheim zijn.