Digitalisering en democratie
Blog

Snelle AI vereist langzame politiek

Kunstmatige intelligentie (AI) is weer een nieuwe fase ingegaan. Niet zo zeer technologisch (ChatGPT kan niet echt iets nieuws) maar wel maatschappelijk (ChatGPT is uiterst laagdrempelig en breed toepasbaar).

Het gevolg is een publiek debat dat na jaren van relatieve stilte op zich welkom is. Het is van belang dat de discussie over digitalisering niet alleen door insiders gevoerd wordt. Ook al vliegt het nu hijgerig alle kanten op. Ook al verdringt een overvloed aan optimisme (utopisme) of pessimisme (dystopie) de broodnodige nuance. Ook al ontneemt alle bullshit een goed zicht op de kern van de zaak.

De kernvraag is wat deze invasieve en disruptieve technologie betekent voor de fundamenten van onze samenleving en democratische rechtsstaat. Oftewel: welke waarden en rechten worden geraakt door toepassingen als woordvoorspeller ChatGPT?

Tien jaar geleden raakte de Tweede Kamer plotseling in de greep van robotangst en nu is er ineens ChatGPT-paniek.

Ik begin even met een waarde dicht bij ons dagelijkse leven: arbeidsproductiviteit want steeds weer is de hoop dat technologie ons productiever maakt en steeds weer valt het tegen. Zoals econoom Robert Solow ooit stelde: ‘We zien overal computers om ons heen, maar niet in de productiviteitsstatistieken.’ Hetgeen naadloos aansluit bij wat FD-columnist schrijver Sophie van Gool onlangs schreef over haar stress veroorzakende e-mailbox.

Omdat ook chatapps en social media onze concentratie voortdurend doorkruisen is het goed te luisteren naar mensen als Martijn Aslander die het belang van ‘digitale fitheid’ benadrukken.

Een ander maatschappelijk fundament dat AI op het spel zet is de betrouwbaarheid van informatie: wat betekent generatieve software voor een gedeelde waarheid en daarmee een gezamenlijke basis om vanuit te discussiëren en opereren? Oftewel: hoe wapenen we ons tegen steeds subtielere desinformatie en steeds scherpere polarisatie? Ook onze de staatsveiligheid is in het geding. Want wat zijn de militaire implicaties van AI? Hoe ziet een geautomatiseerde oorlog eruit? Ten derde kan ook de sociale gelijkheid verder onder druk komen omdat de technologiemacht zich steeds meer concentreert en het daarmee uiterst onwaarschijnlijk is dat iedereen in voldoende mate meeprofiteert van de potentiële AI-baten.

Op deze vraagstukken moet de overheid (wie anders?) een antwoord formuleren. Vaak hoor je dan iemand roepen dat de technologische verandering veel te snel gaat, dat de politiek hopeloos achter de feiten aanloopt dat en dat dat het allemaal niet meer te reguleren is. Op het eerste gezicht een begrijpelijk gevoel.

Echter, op die ‘exponentiële snelheid’ valt best wat af te dingen. Tien jaar geleden raakte de Tweede Kamer plotseling in de greep van robotangst en nu is er ineens ChatGPT-paniek. Maar vergeleken met de menselijke intelligentie zijn er nog grote beperkingen en veel doemscenario’s zijn niet uitgekomen. Ook het vastgeroeste idee dat digitalisering een magische kracht is die niet te controleren valt, moeten we nu eindelijk eens gaan loslaten: het digitale, publiek-private en grensoverschrijdende domein zit complexer in elkaar dan de fysieke infrastructuur maar valt wel degelijk te reguleren.

Belangrijker dan de snelheid zijn de -ongekende- schaal en de diepgang van AI. Dit goed overzien vergt denkkracht en diepgang. Een technologie begrijpen, de impact inschatten, een mensgerichte afweging maken en dit vertalen naar uitvoerbaar beleid kost immers tijd. Tijd die de politiek zelden neemt.

Om grip op AI te krijgen moeten we een wankel evenwicht bewaren.

Paradoxaal genoeg handelt de politiek in feite niet traag maar -uit daadkracht en scoringsdrang- juist overhaast (een ferme uitspraak voor de camera, een snel ingediende motie). In mijn boek ‘De democratie crasht’ beschrijf ik hoe dit de besluitvorming van over grote en complexe vraagstukken steeds verder verslechtert.

Zo bezien lijkt het dus gunstig dat AI vooral op het bordje van de EU ligt, maar tegelijk dreigt de Europese regeltrein af te koersen op een complex kluwen aan interfererende wetten (zoals de AVG, de DSA, de AI Act en de Data Act).

Om grip op AI te krijgen moeten we een wankel evenwicht bewaren: enerzijds niet talmen en anderzijds rustig nadenken alvorens te handelen. Dat is een bestuurlijke uitdaging die in het digitale tijdperk allesbehalve vanzelfsprekend is maar veruit het meeste uitzicht geeft op duurzame daadkracht.

  • Ruud Leether | 30 mei 2023, 16:59

    Bullshit, mag ik hopen, zit niemand op te wachten maar of dit artikel zich daarvan nu werkelijk onderscheidt, waag ik te betwijfelen. Zo verlopen de ontwikkelingen van AI in het algemeen en ChatGPT in het bijzonder, wel degelijk exponentieel snel en vooral ook zonder een deugdelijke externe controle op de grote IT-Techbedrijven die zich daarmee welhaast exclusief bezig houden. Dat vinden niet alleen tal van vooraanstaande IT-deskundigen, zoals recent nog weer eens bleek uit de open brief van ruim duizend AI-experts, maar ook Altman CEO van OpenAI dat ChatGPT heeft ontwikkeld. Een onwenselijke ontwikkeling waarvoor wijlen Hawking, Gates en Musk trouwens al jaren geleden hebben gewaarschuwd. Vorenbedoelde open brief is ook niet zomaar door meer dan 1000 vooraanstaande deskundigen waaronder Wozniak, Mostaque, Harari, Bengio, Russell, Marcus en bijvoorbeeld ook de Nederlandse hoogleraar Vaandrager, ondertekend. Leuk natuurlijk dat voormalig Kamerlid Kees Verhoeven van mening is dat het momenteel in een “hijgerige discussie” over AI ontbreekt aan nuance en dat op die verondersteld razendsnelle ontwikkeling best wat valt af te dingen, maar voorlopig hecht ik toch maar even wat meer waarde aan uitspraken van vorenbedoelde deskundigen al was het maar omdat een groot deel van hen, anders dan Kees Verhoeven, ook daadwerkelijk bij de ontwikkeling van AI betrokken is. Mijn scepsis geldt a fortiori voor zijn al te vrijblijvende verwijt als zou het een vastgeroest idee zijn dat digitalisering een niet te bedwingen magische kracht is. Allereerst gaat het hier niet zozeer over digitalisering als proces maar over AI, meer in het bijzonder “deep learning”, als meest extreme verschijningsvorm daarvan en voorts is nu juist de menselijke beheersbaarheid van AI, de prangende en vooralsnog onbeantwoorde vraag van diezelfde deskundigen. Dat AI nog beperkingen kent in vergelijking met menselijke intelligentie mag anno 2023 waar zijn, dat dat heel snel anders kan zijn staat volgens de meeste deskundigen evenzeer vast. Sterker nog, de vraag is volgens die deskundigen al lang niet meer of dat zal gebeuren maar alleen nog wanneer dat zo zal zijn. Wie denkt dat de EU en onze overheid er met regelgeving wel voor zullen zorgen dat dat uiteindelijk allemaal reuze zal meevallen, heeft vermoedelijk wat relevante ontwikkelingen gemist. Zo is de EU al sinds 2018 aan het nadenken over een zogenoemde “risk based” AI-verordening. Die had er natuurlijk al lang moeten zijn maar de Brusselse schrik over de onverwacht snelle ontwikkeling en publieke beschikbaarstelling van ChatGPT bleek zo groot dat de komst daarvan inmiddels opnieuw is vertraagd nu tot -tenminste- 2024. Brussel heeft dan dus 6 jaar na kunnen denken over een fenomeen dat zich zeker de laatste jaren exponentieel snel, en ligt het aan de ontwerpers zelfs volledig autonoom, verder ontwikkelt. Wie Rutte c.s., waaronder staatssecretaris voor digitalisering Van Huffelen, over AI hoort praten zal iedere hoop op een inhoudsvolle en verantwoorde visie over AI sowieso snel laten varen. Illustratief voor het opvallend naïeve nationale besef waar het gaat om de onvermijdelijke risico’s van AI waren recent de uitspraken van Angeline van Dijk, directeur van de Nederlandse Rijksinspectie voor de Digitale Infrastructuur, die er alle vertrouwen in zei te hebben dat de markt er wel voor zal zorgen dat het niet uit de hand gaat lopen en hier verstandig mee om zal gaan. Misschien toch maar even het rapport van Elias uit de stoffige boekenkast halen en is dat niet genoeg wat googelen op recente artikelen uit de New York Times over die zogenaamde “verantwoordelijkheid van de markt”. Medewerkers van Google en MS die AI-producten moesten testen en zorgen bleken te hebben over een te snelle uitrol daarvan kregen, aldus de New York Times, per email te horen dat het “een fatale fout was om nu zorgen te hebben over iets dat later verholpen kan worden”. Medewerkers van Google die verantwoordelijk zijn voor de veiligheid en ethische implicaties van AI- producten, zelfs dat ze “niet in de weg moeten gaan staan of moeten proberen om generatieve AI- producten in ontwikkeling te stoppen.” Hoezo verantwoordelijkheid van de markt…. ?
    De ontwikkeling van AI, beste Kees, is al veel te lang ongecontroleerd en exclusief in handen van de grootste IT-bedrijven en dan gaat het per definitie nu eenmaal eerst en vooral over geld en macht, in dit bijzondere geval beide zelfs van een vooralsnog ongekende omvang. En juist dan, leert de ervaring, is onze hoogste waakzaamheid geboden i.p.v. het lichtzinnig gebruiken van kwalificaties als “bullshit” en “hijgerige discussies” temeer waar het hier gaat over een fenomeen waarvan in ieder geval de potentieel grote disruptieve aard onbestreden is ….

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren