zoeken binnen de website

AI, reguleren of stimuleren?

Christian Verhagen

door: Christian Verhagen | 10 september 2019

Eind augustus gingen Elon Musk (Tesla/SpaceX) en Jack Ma (Alibaba) met elkaar in debat over artificial intelligence (AI). Op veel vlakken zijn ze het eens, maar terwijl Musk waarschuwt voor de risico’s ziet Ma toch vooral kansen.

Het dilemma of AI gereguleerd of juist gestimuleerd moet worden zien we ook in het politiek en maatschappelijk debat. Op de G7 in Biarritz en op de Europese top van defensieministers werd recent gesproken over het gebruik van AI voor militaire toepassingen. Eerder kwam ook het bericht dat techbedrijven – waaronder Amazon en Microsoft – betrokken zijn bij de ontwikkeling van dodelijke, autonome wapens. Al snel doemt dan het beeld op van dystopische films, zoals Terminator. In 2017 riepen leiders op het gebied van AI en robotica, waaronder Elon Musk, in een open brief aan de VN dan ook op om de ontwikkeling van zogenaamde killer robots te verbieden. In 2018 herhaalde Heiko Maas (Duitse minister van Buitenlandse Zaken) bij de VN de noodzaak voor een verbod, “before it is too late!”.

Ondertussen worstelen overheden wereldwijd met de vraag of en hoe AI gereguleerd moet worden. Van een verbod op lethal autonomous weapon systems (LAWS) is nog geen sprake. Ook Nederland is geen voorstander van een dergelijk verbod. Kernvraag volgens het kabinet is: “hoe mensen in controle kunnen blijven en de verantwoordelijkheid kunnen blijven dragen voor systemen die in toenemende mate beschikken over een bepaalde mate van autonomie, zelflerend vermogen, of meer in het algemeen kunstmatige intelligentie.” [1] Dit strekt verder dan wapensystemen. Denk bijvoorbeeld aan zelfrijdende auto’s of algoritmes die zelfstandig handelen op de beurs. Om te beginnen zou een verbod lastig te definiëren zijn en mogelijk ook allerlei nuttige niet-militaire AI-toepassingen raken.

Er zijn steeds meer voorbeelden van AI-toepassingen waarbij de autonomie verschuift van de mens naar de machine. De zelflerende twitter-robot van Microsoft uit 2016, die binnen 24 uur was veranderd in een haatdragende racist, is nog een relatief onschuldig voorbeeld. Wanneer we echter ook onze gezondheid in handen leggen van AI – zoals bij het stellen van diagnoses – of met gezichtsherkenning automatisch boetes gaan uitdelen – zoals al praktijk is in China – lopen we al snel tegen complexe ethische en praktische bezwaren. Hetzelfde zien we bij zelfrijdende auto’s. Enerzijds roept een volledig zelfrijdende auto vragen op over verantwoordelijk en aansprakelijkheid. Anderzijds kan door de inzet van dit soort auto’s het aantal aanrijdingen en verkeersslachtoffers worden beperkt.

Op militair gebied is de AI-wapenwedloop inmiddels in volle gang en lijkt onomkeerbaar. LAWS zijn geen science fiction meer. Onder meer de VS, Rusland en China zetten al autonome wapensystem in op het slagveld. China werkt bijvoorbeeld aan een autonome onderzeeër, die in staat is zelfstandig aanvallen uit te voeren. Daarnaast speelt AI ook op een andere manier een belangrijke rol bij oorlogsvoering, zowel defensief als offensief. Denk aan cyberattacks en het afwenden daarvan, of het creëren van fake news met gemanipuleerde video’s waarbij politici woorden in de mond gelegd kunnen krijgen om de publieke opinie te beïnvloeden.

Ook Nederland zal in Europees of NAVO-verband de komende jaren moeten inzetten op AI om onze krijgsmacht relevant te houden. En ook al is het reguleren van AI lastig, toch lijkt het geen slecht idee om – met de Terminator in het achterhoofd – op internationaal niveau afspraken te maken over responsible AI om grip te houden op de killer robots en andere autonome intelligente systemen.

Christian Verhagen is senior adviseur bij Verdonck, Klooster & Associates en publiceert regelmatig over data en technologie in de publieke sector.

[1] Antwoord van Minister Bijleveld-Schouten (Defensie) (ontvangen 11 oktober 2018) op vragen van het lid Belhaj (D66) aan de Minister van Defensie over het bericht dat het Europees Parlement killerrobots wil verbieden (ingezonden 19 september 2018).

tags: ,

Reactieformulier

De met een * gemarkeerde velden zijn verplicht. U ziet eerst een voorbeeld en daarna kunt u uw bijdrage definitief plaatsen. Uw e-mailadres wordt niet op de site getoond. Reacties zonder achternaam worden verwijderd. Anoniem reageren alleen in uitzonderlijke gevallen in overleg met de redactie. U kunt bij de vormgeving van uw reactie gebruik maken van textile en er is beperkt gebruik van html mogelijk.