Markt en overheid
Congres

Keynote Anne Fleur van Veenstra: ‘Mens centraal zetten is super complex’

Anne Fleur van Veenstra (TNO): "In GovTech ontstaan ecosystemen van partijen die samen betrokken zijn bij overheidsprocessen."

Anne Fleur van Veenstra van TNO gaat tijdens GovTech 2023 in op de vraag: Hoe zet je de mens centraal bij de ontwikkeling en uitvoering van GovTech? Ze schetst verschillende logica’s die spelen en concludeert dat het buitengewoon ingewikkeld is.

Anne Fleur van Veenstra is wetenschappelijk directeur van TNO Vector, Centrum voor Maatschappelijke Innovatie en Strategie. Mensen centraal zetten in de ontwikkeling van verantwoordelijke technologie is een juist en eerlijk streven, maar in de praktijk super complex, is de boodschap van Van Veenstra. Het begint al met de vraag welke mens je centraal zet.

Ze laat een foto van een bankje in een park zien. De bank heeft drie leuningen, twee aan de zijkanten van de bank en een in het midden. Of de zaal weet waarom er een leuning in het midden zit? Reactie uit het auditorium van de TU Delft: ‘Die leuning zorgt ervoor dat daklozen er niet op gaan liggen. Het is tegen de mensen die last hebben van de crisis op de woningmarkt’. Dus de mens die last heeft van de mens die is getroffen door de crisis op de woningmarkt, stond centraal bij het ontwerp van deze bank.

Digitale technologie in beleid

Ander voorbeeld: ‘dark patterns’, die erop gericht zijn mensen te misleiden. Van Veenstra: “Dark patterns zijn heel erg ontworpen met de mens centraal. Ze zorgen er op websites voor dat mensen op het knopje drukken waarmee ze zoveel mogelijk data afgeven. Dus hoe doe je dat, de mens centraal zetten? De toepassing van digitale technologie in de uitvoering van overheidsprocessen is al oud, de laatste tien jaar zien we dat digitale technologie steeds meer terug in beleidsprocessen. Bijvoorbeeld om problemen in kaart te brengen. Nu komen we in het tijdperk van algoritmische besluitvorming, waarbij het de vraag is of er nog mensen aan die besluitvorming te pas komen.”

Drie soorten logica’s in GovTech

“De overheid is verantwoordelijk voor de besluitvorming, de uitvoeringsprocessen en de dienstverlening, maar steeds meer van de processen en de gebruikte technologie worden ingekocht of uitbesteed.” In al die fases lopen er volgens Van Veenstra drie logica’s door elkaar heen, die het voor overheidsorganisaties ingewikkeld maken de mens centraal te stellen.

Ik roep jullie op om elkaar te leren het op een goede manier te doen.
Anne Fleur van Veenstra, wetenschappelijk directeur van TNO Vector

“De eerste is de marktlogica. De overheid heeft een taak en zoekt daar de beste technologie bij, die volgens vaste regels wordt ingekocht of uitbesteed. Dat is al meteen behoorlijk complex. Welke partijen krijgen een rol en hoe groot mogen die partijen worden? Wat is de rol van de zogeheten gatekeepers, hoe zit het met de marktmacht? Wie heeft controle over de data of de digitale soevereiniteit? Lastige vragen voor een gemeente die een uitvoeringsproces met digitale technologie wil inrichten.”

Ecosysteemlogica

De tweede logica die Van Veenstra ziet noemt ze de ecosysteemlogica. “In GovTech ontstaan ecosystemen van partijen die samen betrokken zijn bij overheidsprocessen, de technische ontwikkeling en de uitvoering ervan. Dan moeten er afspraken worden gemaakt over de kwaliteit van de data die over en weer gaan. Er moeten koppelvlakken worden ingericht om te kunnen communiceren. Er is data governance nodig, wie is waar verantwoordelijk voor in het proces en hoe leg je verantwoording af? Wat doe je als ergens een fout wordt gemaakt? Ook dat is op zich weer heel complex.”

Tweede orde effecten

“De derde logica is verantwoordelijkheidslogica vanuit het besef dat het gebruik van technologie ook tweede orde effecten kan hebben. Dat gaat verder dan netjes verantwoorden wat er in een proces gebeurt. Je kijkt ook naar de onbedoelde effecten van technologie of datagebruik die mensen kunnen ondervinden. Een bekend voorbeeld van deze logica is de ‘Principles van de High Level Expert Groep on AI’ een initiatief van de Europese Commissie. Iedereen voelt wel aan dat bij een systeem dat in enige mate zelflerend en zelfreinigend is, je moet nadenken over hoe je dat verantwoordelijk houdt op een manier die de mens centraal stelt.”

Spanningsvelden

De drie logica’s maken het ingewikkeld om de mens centraal te stellen, ook al omdat er tussen die logica’s ook nog spanningsvelden kunnen optreden. Uit de hoek van het vakgebied Responsible Research & Innovation en het denken rond het concept ELSA (Ethical, Legal & Societal Aspects) komt hulp om met deze vraagstukken om te gaan en de ethische, juridische een maatschappelijke aspecten van technologieontwikkeling te adresseren. Door in het kader van de AVG een Data Protection Impact Assessment (DPIA) te doen, minimaliseer je de kans dat je iets doet wat niet in de geest van de AVG is. De Europese AI Act maakt dat organisaties ook moeten gaan nadenken over in welke risico-categorie hun technologie valt.

Afsluitend zegt Van Veenstra dat het ontwikkelen van verantwoorde overheidsprocessen samen met startups nogal wat voeten in de aarde heeft, in het samenspel van deze logica’s. “Ik roep jullie op om elkaar te leren het op een goede manier te doen.”

govtechday 2023

GovTech zijn maatschappelijk-technische oplossingen voor de customer journey van burgers en bedrijven bij de overheid. Op 9 juni 2023 organiseerde iBestuur de eerste GovTechDay bij de TU Delft, met het doel de spelers vanuit de markt, de overheid en de wetenschap bij elkaar te brengen en zo innovatie te stimuleren.

Lees meer op de projectpagina GovTechDay – iBestuur

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren