Blog

Strategisch actieplan AI

Het Strategisch Actieplan voor AI staat vol met gemeenplaatsen die in elk vergelijkbaar plan worden herhaald.

Gelukkig! Nederland is voorzien van een Strategisch Actieplan voor Artificiële Intelligentie, afkorting: SAPAI (sic). Het actieplan is door het ministerie van Economische Zaken en Klimaat in oktober uitgebracht, maar was reeds lang in voorbereiding, gezien de talrijke verwijzingen naar acties in “de loop van 2019”.

Het plan loopt op drie sporen: maatschappelijke en economische kansen benutten, het scheppen van de juiste voorwaarden en het versterken van de fundamenten. Het plan is bedoeld om het onderzoek en toepassing van AI in Nederland te versnellen en te versterken. Om het allemaal niet te ingewikkeld te maken is het plan voorzien van een ‘infographic’ (gestileerd stripverhaal), zodat ook de visueel georiënteerden onder ons kennis kunnen nemen van de aandachtspunten. Overigens doet dit plan mij sterk denken aan het ‘Informatica stimuleringsplan’ uit 1983 (zonder icoontjes), waarbij ik als maagdelijke beleidsmedewerker/secretaris voor Economische Zaken betrokken was bij de kersverse stafdirectie Informaticabeleid. Destijds werd het nodig gevonden een overheidsbeleid te ontwikkelen omdat het anders verkeerd zou kunnen aflopen met het onderwerp informatica. De markt moest geholpen worden door de overheid en informatica was de sleutel voor de toekomst. Dit AI-actie plan loopt dezelfde route. Logische gemeenplaatsen die in elk vergelijkbaar plan worden herhaald. AI is de sleuteltechnologie voor de toekomst. Evenals in 1983 is in het eerste spoor public private partnership van groot belang. Verder samenwerking met Europese partners (origineel) , accent op mens en maatschappij en natuurlijk: nu vernieuwd recept: inclusiviteit!

Een beetje verdacht is de oriëntatie op de toepassing van AI bij de overheid: samenwerking bij de uitwisseling en koppeling van gegevens en databestanden. Een verwijzing naar de FAIR-principes (Findable, Accessible, Interoperable, Reusable) voor datagebruik vergroot deze verdenking (pagina 34) door aan te geven dat:”data geschikt worden gemaakt, of kan hun geschiktheid worden vastgesteld voor hergebruik (delen) door zowel mensen als machines onder duidelijk beschreven condities”. Gelukkig wordt wel regelmatig herhaald dat alle oplossingen transparant en voor de burger toegankelijk moeten zijn. Daarnaast wordt overal onderzoek gedaan naar slimme (smart) oplossingen. Van energietransitie tot onderzoek naar autonome voertuigen, waar problemen moeten worden geïnventariseerd op multidisciplinaire basis: “Autonoom rijden zal de veiligheid verhogen, maar leidt ook tot vragen, bijvoorbeeld over het omgaan met onzekerheden binnen autonome systemen. Waar ligt de verantwoordelijkheid voor de besturing? Hoe kunnen AI-algoritmen voor autonoom rijden worden gecontroleerd en uitgelegd aan de verschillende belanghebbenden voor acceptatie en veiligheid, etc. Het CWI, TNO, de Faculteit der Rechtsgeleerdheid van UvA en het Instituut voor Informatica van UvA werken onder de noemer ‘Meaningful Control of Autonomous Systems’ (MCAS) samen aan een antwoord op deze vraagstukken.(pagina 18)

Het tweede spoor richt zicht op educatie en bewustwording. Vanzelfsprekend wil Nederland voorloper zijn op bij de ontwikkeling en toepassing van AI, want we hebben immers de capaciteiten met een goed opgeleide bevolking en een ‘open mind’ voor nieuwe kansen. Eigenlijk schot voor open doel, want “Nederland heeft al een voorhoedepositie in Europa in kwalitatief hoogwaardige digitale en intelligente connectiviteit voor effectieve AI-toepassingen” (sic). Bovendien heeft Nederland al een toppositie in fundamenteel en toegepast onderzoek. De nadruk ligt op fundamenteel onderzoek, dat verbonden is met toegepast en praktijkgericht onderzoek. Dit accent is terug te vinden in de wetenschapsagenda van NWO, waar vanzelfsprekend vooral aandacht is voor verantwoord, human centric, vertrouwenwekkend, transparant en uitlegbaar AI onderzoek. (pagina 27).

SURF krijgt een supercomputer van de minister en er worden AI-meerjarenprogramma’s uitgebracht op alle terreinen van het onderwijs, overheid en bedrijfsleven in onderzoekslabs. Onder andere tussen TNO en Defensie. Gelukkig barsten we, volgens het rapport, van het talent en scholingsmogelijkheden. Dus ook met de internationale voorsprong komt het wel goed. Zeker nu ook het curriculum om de digitale geletterdheid in primair en voortgezet onderwijs te bevorderen, wordt aangepast. Voor de invloed van AI op het werk wordt voor onderzoek door NWO drie miljoen euro uitgetrokken, voor de zorg is hiervoor wel 7,5 miljoen beschikbaar (watermolecuul op gloeiende plaat!).

Het derde spoor trekt vanuit mijn interesseprofiel de meeste aandacht. Gelukkig wordt erkend dat de grondrechten een belangrijke rol spelen bij de toepassingen van AI. De overheid heeft in dit rapport diepgaand over deze kwestie nagedacht. Geconstateerd wordt dat: de privacy kan worden geschonden als de verwerking van persoonsgegevens niet voldoet aan de eisen van behoorlijkheid en transparantie uit de AVG. (pagina 41). Men ziet dit gevaar bij het gebruik van gezichtsherkenningstechnologie en het gebruik van big data. Er wordt tevens bij stilgestaan dat door de toepassing van AI de vrijheid van meningsvorming in gevaar kan worden gebracht, de menselijke waardigheid en autonomie kan worden aangetast en het recht op een eerlijk proces door te veel te leunen op AI kan worden geschaad.

Allemaal een waarheid als een koe. Gelukkig zijn er beleidsbrieven gestuurd naar de Tweede Kamer over AI, publieke waarden en mensenrechten, AI en rechtspleging. In die brieven kondigt het kabinet beleid aan om publieke waarden en mensenrechten bij AI-ontwikkelingen te borgen. Deze brieven en de beleidsvoorstellen zijn gebaseerd op het onderzoek van onder meer de Universiteit Utrecht en andere, deels wetenschappelijke, bronnen. Overigens wordt het vertrouwen in de overheid door mij niet direct versterkt door de antwoorden van de minister, onder andere ten aanzien van het transparantiebeginsel: Dat impliceert dat de overheid in andere gevallen (niet zijnde directe besluitvorming, RHG) waarin zij algoritmes gebruikt, niet op voorhand gehouden is deze inzichtelijk en controleerbaar te maken c.q. nuttige informatie over de onderliggende logica te verschaffen. Te denken valt aan gevallen waarin de overheid toezicht houdt en in dat kader met behulp van algoritmes risico’s taxeert dat personen zich niet aan de wet houden. Het gebruik van dergelijke risicotaxatie-instrumenten kan bijdragen aan een efficiëntere en effectievere inzet van capaciteit. [1] Het onderscheid met het Chinese ‘social credit system’ is niet zo heel groot!

Gelukkig wordt later in het rapport aangegeven dat het AI-beleid dient te voldoen aan aanvaarde ethische kaders en dat AI kan worden ingezet om dicriminatie en ‘bias’te vermijden zodat het vertrouwen van de burger in AI hierdoor kan worden versterkt. Alle maatschappelijke actoren zijn hier of al mee bezig of worden gestimuleerd de ethische toepassing, transparantie in de zin van uitlegbaarheid van betrokkenen en normering hiervan te realiseren. En vreest niet, er is al een NEN-normcommissie AI (bestaande uit belanghebbenden!) die good practices en kaders voor betrouwbare en ethisch verantwoorde AI-toepassingen ontwikkelt, zodat we door en met AI met zijn allen nog lang en gelukkig verder kunnen leven…

Rob van den Hoven van Genderen is voorzitter van de Nederlandse Vereniging voor Artificiële Intelligentie en Robotrecht (NVAIR)

[1] Kamerstuk 26643, nr. 570.

  • Hub Dohmen (NVAIR en Dohmen advocaten) | 7 november 2019, 10:53

    Helder, Rob! Niet voor niets dat je medeorganisator bent van de themabijeenkomst van 12-12 in A’dam van de NVAIR, waar D66-‘digi-kopstuk’ Kees Verhoeven komt spreken over een veilige digitale overheid en algoritme- en dataspecialist Romke Bontekoe dmv een speciaal voor de bijeenkomst gebouwd algoritme uitleg geeft.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren