De roep om regulering van AI wordt steeds groter, maar de vraag is in hoeverre AI wel te reguleren is en hoe dan?
Premier Mark Rutte zei onlangs in Davos dat er meer grip nodig is op de ontwikkeling van artificiële intelligentie (AI).
De roep om regulering met betrekking tot AI wordt steeds groter en komt inmiddels ook vanuit de markt. Zo pleitte Google-topman Sundar Pichai in de Financial Times voor een stevigere rol van overheden. Dit terwijl president Trump recent nog opriep om regulering juist te beperken omdat het innovatie zou afremmen. De vraag is echter in hoeverre AI te reguleren is en welke vorm van regulatie nodig is.
De opmars van AI is niet te stuiten. De hoeveelheden data die wereldwijd worden verzameld stijgen exponentieel, net zoals de technologie die steeds nauwkeuriger patronen, verbanden en voorspellingen uit die data kunnen halen. Toepassingen zien we overal terug, van zelfrijdende auto’s tot het preventief onderhoud van onderdelen in treinen. Het gaat dan ook lang niet altijd over persoonsgegevens, hoewel de discussie zich daar wel vaak toe beperkt.
Regulering is nodig om de opmars in goede banen te leiden. Dit vereist een goed begrip van hetgeen gereguleerd moet worden. Bij AI is dat minder eenvoudig dan vaak gedacht. Het verbod bijvoorbeeld op het gebruik van verregaande algoritmes door de overheid, waar D66 vorig jaar voor pleitte, roept direct de vraag op wat verregaand is. Bovendien zijn niet alle algoritmes ‘intelligent’, maar wordt dit onderscheid door beleidsmakers en politici zelden gemaakt. Een eerste stap naar regulering van AI is dan ook bewustwording van de heterogeniteit van dit begrip.
Maar ook dan blijft regulering complex, zoals bij killer robots, oftewel volledig autonome wapensystemen. Het kabinet is tegen de ontwikkeling en de inzet van killer robots, maar tegelijkertijd geen voorstander van een verbod of moratorium. Daarbij rijst immers al snel de vraag van een verbod waarop? AI is niet één specifieke technologische ontwikkeling, maar omvat een breed pallet aan technologieën. Een verbod frustreert dan mogelijk ook allerlei nuttige AI-toepassingen, bijvoorbeeld in de gezondheidszorg.
Die nuttige toepassingen zijn er steeds meer. Zo gebruiken het VUmc en het Radboudumc sinds kort AI om artsen te adviseren over de behandeling van patiënten en zo de kwaliteit van zorg te verbeteren. Ook kan AI helpen bij het behalen van de duurzame ontwikkelingsdoelen van de Verenigde Naties of bij voorspellen en beheersen van epidemieën. Dit soort voorbeelden maken duidelijk dat AI een enorme potentie heeft om voor velen de kwaliteit van leven te verbeteren. Het grootste risico van AI is dat deze potentie onbenut blijft. Daarom zegt Google nu aan te dringen op overheidsregulering. Niet door met een geheven vinger te zwaaien, maar door kaders te bieden om op een verantwoorde wijze de ontwikkeling van nuttige AI-toepassingen te bevorderen.
In de globale ratrace om koploper te worden met AI ligt juist daar de kans voor Nederland. Niet door het bedrijfsleven een prominente positie te geven bij de ontwikkeling van AI, zoals in de VS, of juist de overheid, zoals in China, maar door een intensieve publiek-private samenwerking. Regulering is nodig om vanuit een ethische en positieve blik op AI te kunnen investeren in de ontwikkeling van hoogwaardige technologie die geaccepteerd, eerlijk en uitlegbaar is.
Christian Verhagen is senior adviseur bij Verdonck, Klooster & Associates en publiceert regelmatig over data en technologie in de publieke sector.