Data en ai
Blog

Integriteit

Waar liggen de (ethische) grenzen bij het gebruik van 'big data' en wie bepaalt die grenzen? En wat is daarbij de rol van de overheid?

Waar liggen de (ethische) grenzen bij het gebruik van ‘big data’ en wie bepaalt die grenzen? En wat is daarbij de rol van de overheid?

Op een congres rond ethiek in Antwerpen kreeg ik de vraag of we in een slimme, geconnecteerde wereld stilaan onze persoonlijkheid afstaan? Staan ‘connected things’ en integriteit & ethiek nog in een juiste relatie met elkaar? Ondertussen zijn de termen ’Smart City’ en ’internet der dingen’ (IoT) al lang doorgedrongen tot bij onze overheidsmanagers en beleidsmakers, maar ondanks de kansen die iedereen eraan verbindt maken vele mensen – waaronder ik zelf – zich zorgen over de beveiliging van data in zo’n groeiend internet der dingen. Nu ben ik (absoluut) niet diegene die alle evoluties wil gaan neermeppen door ethiek of veiligheid in te roepen, maar de ethische kwesties die spelen bij het gebruik van data in een geconnecteerde wereld, krijgen naar mijn mening (nog) net iets te weinig aandacht. En dat kan anders!

Net zoals bij het ‘gewone internet’ – waar ook nog heel wat ethische kwesties onopgelost blijven en zelfs GDPR/AVG niet sluitend blijkt te zijn ondanks de wetgeving daaromtrent – komt het belang van gegevensbescherming bij het internet der dingen (IoT) weinig naar voor. Terwijl het bewustzijn rond het gebruik en de doorgifte van persoonsgegevens stapsgewijs verhoogt, hebben we er helemaal geen moeite mee om onze eetgewoonten aan een geconnecteerde (‘slimme’, zoals dat ook wel wordt genoemd) koelkast door te geven zodat deze gevuld blijft, of om onze vakanties en afwezigheden door te geven aan onze slimme huisverlichting die via onze smartphone perfect weet of we in de buurt zijn of niet.

Misbruik

Meldcentrales capteren deze data – een rijke bron van gelinkte informatie (linked big data) – zonder enige vooraanname en mensen vertrouwen er blindelings op dat deze ‘datavergaarbakken’ op een integere manier met de opgeslagen informatie omgaan. Nog erger wordt het wanneer we deze geconnecteerde dingen ook echt gaan beschouwen als ‘dingen’ waar we alles aan kunnen toe vertrouwen zonder er bij stil te staan dat deze data naar derden wordt doorgesluisd. Blind vertrouwen en onwetendheid zijn hier de twee belangrijkste factoren die misbruik in de hand werken.

In een wereld gedomineerd door IoT-apparaten zullen persoonlijke gegevens van burgers met of zonder hun kennis worden verzameld en gebruikt. Bij de vraag of ik het correct vind dat gemeenten hun in- en uitgaand verkeer monitoren op basis van geïndividualiseerde kenmerken zoals nummerplaten, voor het grote doel van de verbetering van de luchtkwaliteit in door de overheid vastgelegde ‘laag emissiezones (LEZ)’, geef ik als antwoord: “Hoe kunnen we nagaan of men al dan niet integer omgaat met deze gegevens?” Terwijl privacygoeroes mij continu wijzen op mijn eigen verantwoordelijkheid in het doorgeven van mijn persoonsgegevens aan sociale media, blijft het doodstil als ik dan vraag hoe dit zit bij soortgelijke doorgave van gegevens via het internet der dingen en andere slimme oplossingen die overheden inschakelen. Met andere woorden: net zoals ik soms vergeet dat populaire media wel degelijk misbruik maken van mijn aangeleverde persoonsgegevens, lijkt de wereld te vergeten dat ook de mensen achter IoT-oplossingen zeer losjes omgaan met onze informatie.

Wie geeft mij een duidelijke definitie omtrent wanneer we nu wel of niet over misbruik spreken? Misschien ligt de lijn wel daar waar ik zelf bewust ben van het gebruik van mijn gegevens? Hoever mogen firma’s bijvoorbeeld gaan in het capteren van onze eet- en bewegingspatronen (bijvoorbeeld smart watches)? Mogen zij zomaar gezondheidsfiches opmaken op basis van onze gewoontes? Klopt het wat deze specifieke markt zegt, namelijk dat alles met elkaar verbonden moet zijn? Mag een overheid conclusies trekken uit onze geconnecteerde leef- en eetgewoonten bij het verlenen van diensten aan haar bevolking op basis van bijvoorbeeld een overdadig gebruik van suikers?

Gevaren

Ik kan alvast twee duidelijke gevaren onderscheiden: de nieuwe eigenaar van de data kan de informatie misbruiken, of nog erger, de verzamelde informatie krijgt niet de beveiliging die nodig is en wordt gehackt of gestolen. Het gaat hier immers om een rijke databron die voor hackers van onschatbare waarde kan zijn. Mijn aandacht gaat dan ook versterkt naar de impact van al die slimme toestellen en de verbindingen die ik, maar vooral anderen, ermee maken. Mijn antwoord was dan ook dat ik me bewust ben van het feit dat elke keer ik een ‘connectie’ maak om mijn ‘leefcomfort’ te verhogen en mijn levenswijzen te automatiseren, ik elke keer een klein stukje vrijheid of privacy afgeef. Maar is dit wel correct?

Waar liggen de (ethische) grenzen bij het gebruik van ‘big data’ en wie bepaalt deze?

In een voorbeeld kijk ik naar een AI-systeem ingezet om het spitsverkeer van een gemeente beter te beheren. Concreet beheert zo’n systeem via IoT talloze verkeerslichten die pendelaars of inwoners – automobilisten, gebruikers van openbaar vervoer, fietsers of voetgangers – veilig door de stad loodsen, op een moment waarop iedereen zich van of naar het werk begeeft. Het AI-systeem maakt gebruik van real-time gegevens afkomstig van duizenden sensoren op voertuigen en bussen, en zorgt met behulp van de ingezette infrastructuur voor een optimale verkeersstroom, berekend op basis van het aantal voertuigen en personen in het systeem. Het systeem gebruikt ‘live data’ bekomen uit de permanente screenings van de reizigers, door bijvoorbeeld het registreren van de scans van metrokaarten, of met behulp van automatische nummerplaat- (ANPR), of met behulp van sensoren waarmee de MAC-adressen van de mobiele telefoons van alle voetgangers worden gevolgd. Wie kan er nu gaan discussiëren over het verbeteren van de pendeltijden en productiever maken van de pendelaars? Ik niet.

Als we echter de verkeersinformatie, geografische gegevens en economische prestaties van de pendelaars om een paar andere mogelijke scenario’s op te zetten, krijg ik iets meer bedenkingen. Als het AI-systeem dan beslist om de economische prestaties te verhogen door prioriteit te geven aan hoger betaalde pendelaars omdat zij in verder afgelegen en duurdere buitenwijken wonen en klassiek meer – economisch verloren – pendeltijd nodig hebben? Laagbetaalde pendelaars dragen minder financieel bij aan de economie. Het wordt helemaal griezelig als het systeem mensen die economisch weinig tot niets bijdragen, gaat verbieden om het al zo drukke verkeer in te gaan tijdens door het systeem vastgelegde uren.

Sensoren

In een ander voorbeeld keek ik naar gezondheidszorg in een slimme stad en de mogelijkheden die we krijgen door big data van burgers te koppelen met bewegings- en herkenningssystemen (slimme bewakingscamera’s) te verbinden met de gezondheidsgegevens om mensen in nood te gaan helpen. Stel je voor dat sensoren de signalen van iemand die een hartaanval krijgt, inclusief de geografisch locatie, doorgeven aan de hulpdiensten en deze ter plaatse zijn enkele minuten vooraleer de ongelukkige stadsbewoner zelf de signalen herkent? Dat iemand op mijn schouders tikt en zegt: “Meneer wees kalm, maar u staat op het punt een hartaanval te krijgen”. Met de juiste handelingen en preventieve ingrepen daalt het sterftecijfers van dit soort (en andere) voorvallen in een oogopslag. Alweer een succesvolle inzet van slimme gegevens die we aan elkaar kunnen verbinden.

Economische waarde

Maar ik krijg schrik als we in een volgende stap de levenswijze van de betrokken persoon monitoren en de economische waarde van die persoon als beslissende factor zal hanteren om hem al dan niet te helpen. Gaan we nog ingrijpen wanneer de betrokken persoon geregistreerd staat als iemand die geen economische waarde meer heeft of die nog slechts een paar jaren te leven heeft? Wordt het ook hier niet griezelig als levenswijzen gekoppeld worden aan het al of niet toelaten tot ‘fast food’ restaurants? Wanneer men deze info gaat gebruiken bij verzekeringsmaatschappijen om het risico te gaan inperken, gebruiken zij deze info dan meteen ook om mensen in functie van deze in kaart gebrachte situatie al dan niet te verzekeren?

Sociaal krediet

Ondertussen kennen we de eerste concrete uitwerking van mensen die opgepakt worden in functie van antiterrorisme omwille van verdachte bewegingen die ze in het stadsbeeld vertoonden of omdat ze een ongewone hoeveelheid kunstmest zijn gaan kopen. Wat denken we van een overheid die elke burger een ‘sociaal krediet’ gaat toekennen en daar voor- en nadelen aan verbindt? Wie zich gedraagt zoals de overheid dat wil en veel punten scoort, zou bijvoorbeeld sneller en gemakkelijker een lening kunnen krijgen. Wie daarentegen lage punten haalt, zou bijvoorbeeld zijn kinderen niet meer naar de beste scholen mogen sturen of bepaalde jobs niet meer mogen uitvoeren of geen buitenlandse reizen meer mogen maken. We hebben het in deze over heel concrete en door de Human Right Watch aangeklaagde situaties uit China.

Zolang mensen en regelgeving correcte controle behouden over de manier waarop algoritmen worden ingezet, zal het allemaal zo’n vaart nog niet lopen. Ik ga er in ieder geval vanuit dat mensen hun ‘gevoel’ continu in balans moeten leggen met de intelligentie van de algoritmen om onze toekomstige steden slimmer te maken. Tot slot zijn algoritmen nog makkelijk beïnvloedbaar, merkte Simon Weckert op toen die in zijn woonstraat in Berlijn de verkeersalgoritmes bedotte door 99 geleende en gehuurde smartphones bij elkaar te brengen en het Google maps algoritme zijn straat rood te laten kleuren en dus vrij snel verkeersvrij.

Eddy Van der Stock is algemeen directeur van V-ICT-OR, de Vlaamse koepelorganisatie voor informatie en technologie op het lokale overheidsniveau en tevens voorzitter van Linked Organisation of Local Authority ICT Societies (LOLAICT), de internationale koepelorganisatie voor ICT in de lokale overheden.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren