Gaat AI ons straks besturen?
Je leest het overal en maakt er misschien al wel gebruik van: Artificial Intelligende (AI) is overal om ons heen. Van de G7 tot de Europese Commissie, van journalisten tot het bedrijfsleven en de eindgebruikers van al deze diensten, het houdt iedereen bezig. Maar de razendsnelle ontwikkeling van AI en het feit dat de technologie voor velen een black box is, leidt tot hoofdbrekens (zelfs bij Open AI). Want hoe krijgen we grip op AI?
Gelukkig is er volop aandacht voor de ontwikkelingen, helemaal sinds we massaal bekend werden met een nieuwe vorm van AI: generatieve AI. Voor de overheid speelt de vraag: hoe integreren we (generatieve) AI in het dagelijks leven en wat betekent dit? Wat en wie is er nodig om kansen te benutten en tegelijkertijd grip te krijgen en te houden?
Visie op generatieve AI
Eind maart hebben Tweede Kamerleden een motie ingediend waarin het kabinet wordt opgeroepen een integrale visie te ontwikkelen met betrekking tot de toepassing, mogelijkheden en risico’s van nieuwe AI-producten.
Wetenschappers zien AI als een sleuteltechnologie. Dat betekent dat de technologie een transformatie teweegbrengt in hoe we werken en leven, zoals ook gebeurde met de uitvinding van elektriciteit en de stoommachine. Voor de overheid biedt AI volop kansen. Het kan een cruciale rol spelen bij het vervullen van verschillende overheidstaken, zoals het monitoren van natuurgebieden en waterwegen om droogte en de staat van de waterkanten te beoordelen. Ook kan AI gebruikt worden als tool om de dienstverlening van de overheid aan burgers te verbeteren. Tegelijkertijd moeten we als overheid gelijke pas houden met de mogelijke risico’s van AI op de samenleving. Want AI kan ook gebruikt worden om desinformatie te verspreiden en vooroordelen en stereotyperingen te voeden. Het is belangrijk om te weten hoe AI beslissingen neemt en op basis waarvan.
Een voorwaarde voor het benutten van de kansen die AI biedt, is dat iedereen toegang heeft tot deze technologie. Tegelijkertijd heeft de overheid de verantwoordelijkheid om publieke waarden te bewaken en ervoor te zorgen dat AI aan deze voorwaarden voldoet. Dit geldt ook voor de overheid als gebruiker: we willen gebruikmaken van de mogelijkheden die AI biedt om onze dienstverlening te verbeteren en onze publieke taken te vervullen, maar we moeten te allen tijde het goede voorbeeld blijven geven.
De snelle opmars van generatieve AI
November 2022 markeerde een omslag in de manier waarop het grote publiek met AI bekend werd. De introductie van ChatGPT maakte een nieuwe vorm van AI voor de hele wereld beschikbaar. Sindsdien maken al meer dan anderhalf miljoen Nederlanders hier gebruik van. Generatieve AI, waar ChatGPT een voorbeeld van is, kan tot ingrijpende veranderingen leiden op talloze terreinen. Door het gebruik van complexe, zelflerende algoritmes die getraind worden op grote hoeveelheden data, wordt het mogelijk om heel gemakkelijk nieuwe content te creëren, zoals tekst, afbeeldingen, audio of video’s of een combinatie daarvan. Zelfs het schrijven van nieuwe programmeercode ligt nu binnen ieders handbereik.
Wat betreft het gebruik van ChatGPT en soortgelijke diensten door de overheid, hebben de gemeenten Groningen en Nijmegen inmiddels al een standpunt ingenomen: terwijl de gemeente Groningen het gebruik van ChatGPT door bestuurders afraadt, biedt de gemeente Nijmegen een viertal principes die als voorwaarden dienen. Kortom, de gemeente Groningen stuurt op gecontroleerd experimenteren, terwijl de gemeente Nijmegen inzet op verantwoord experimenteren.
Beleid: klaar zijn voor de toekomst
Hoewel technologische ontwikkelingen snel gaan, verlopen beleids- en wetgevingsprocessen een stuk trager. Dit vormt een uitdaging voor bestuurders, aangezien er nog veel onzekerheid bestaat over de precieze impact en verdere ontwikkeling van (generatieve) AI. Of AI daadwerkelijk het menselijk brein zal evenaren, zoals soms gezegd wordt, weten we niet. Sommige wetenschappers beweren juist dat de potentiële ontwrichtende werking van AI niet zo snel zal escaleren. Systemen zoals ChatGPT, zeggen zij, kunnen taal niet daadwerkelijk begrijpen en zijn daarom nog niet als ‘intelligent’ te beschouwen. Tegelijkertijd is wel duidelijk dat de bedreigingen die er zijn, door AI nog groter zullen worden.
Het is een uitdaging om beleid te maken voor een vraagstuk dat nog onvoldoende gedefinieerd is. We kunnen nog onvoldoende voorzien wat de impact van deze technologie zal zijn op de maatschappij. Toch wordt er al gewerkt aan beleid op nationaal en internationaal niveau. Zie bijvoorbeeld de recente voortgangsrapportage van de Autoriteit Persoonsgegevens (AP) en de trendanalyse AI en Algoritmen van de Vereniging van Nederlandse Gemeenten (VNG).
Nationaal en internationaal
Op nationaal niveau ligt de focus op het verbeteren van de beheersing van algoritmische risico’s, te beginnen bij de overheid. De Werkagenda Waardengedreven Digitalisering biedt hier richtlijnen voor. Wat betreft AI en algoritmes heeft deze werkagenda al positieve resultaten opgeleverd. Zo is er een algoritmeregister opgezet met als doel het vertrouwen in de overheid te vergroten door overheidsalgoritmes in kaart te brengen en transparantie te bieden. De Autoriteit Persoonsgegevens (AP) fungeert als toezichthouder op de naleving en bescherming van persoonsgegevens die worden verwerkt in algoritmes en AI-systemen. Ook wordt er gewerkt aan een implementatiekader ‘Inzet van algoritmes’ om te zorgen voor duidelijke kaders bij het gebruik van AI door de overheid.
Internationaal wordt momenteel door de Europese Commissie een AI-verordening (AI Act) opgesteld die onder andere ‘hoog risico’-systemen gaat reguleren. Hierbij worden voor sommige typen AI-systemen verplichtingen in het leven geroepen. Denk aan het uitvoeren van impactbeoordelingen om de gevolgen van deze systemen te analyseren. Tegelijkertijd is er een discussie gaande over de mogelijkheid om een aparte categorie toe te voegen met specifieke verplichtingen voor aanbieders van foundation models. Dit zijn AI-systemen die worden getraind op een grote hoeveelheid data om vervolgens een breed scala aan taken te kunnen uitvoeren, met als bekend voorbeeld het model van OpenAI waar ChatGPT op is gebaseerd. Naast de EU werkt ook de Raad van Europa aan een voorstel tot regulering van AI. Dit AI-verdrag richt zich op de bescherming van mensenrechten, democratie en de rechtstaat bij de ontwikkeling en het gebruik van AI-systemen. Tot slot wordt het vierde deel van het Handboek Mensenrechten binnenkort gepresenteerd door het Congres van Lokale en Regionale Overheden. Dit deel richt zich op de analyse van de impact van digitalisering en AI op lokaal mensenrechtenbeleid.
Visie op generatieve AI
Net als bij andere impactvolle technologieën, zoals de stoommachine en de computer, kan generatieve AI ingrijpende gevolgen hebben. Deze zorgen vinden weerklank in het maatschappelijke en politieke debat. Eind maart hebben Tweede Kamerleden een motie ingediend waarin het kabinet wordt opgeroepen een integrale visie te ontwikkelen met betrekking tot de toepassing, mogelijkheden en risico’s van nieuwe AI-producten.
Bij de uitvoering van deze motie worden naast de vele kansen ook de risico’s, uitdagingen en ethische dilemma’s van generatieve AI steeds duidelijker. Daarom werken het ministerie van Binnenlandse Zaken en Koninkrijksrelaties en Economische Zaken en Klimaat hierin nauw samen met andere departementen, waaronder Justitie en Veiligheid en Onderwijs, Cultuur en Wetenschap. De visie beschrijft de impact op de samenleving en belicht de verschillende juridische, ethische en technische gevolgen van deze technologie.
Net als bij andere impactvolle technologieën, zoals de stoommachine en de computer, kan generatieve AI ingrijpende gevolgen hebben. Deze zorgen vinden weerklank in het maatschappelijke en politieke debat. Eind maart hebben Tweede Kamerleden een motie ingediend waarin het kabinet wordt opgeroepen een integrale visie te ontwikkelen met betrekking tot de toepassing, mogelijkheden en risico’s van nieuwe AI-producten.
Bij de uitvoering van deze motie worden naast de vele kansen ook de risico’s, uitdagingen en ethische dilemma’s van generatieve AI steeds duidelijker. Daarom werken het ministerie van Binnenlandse Zaken en Koninkrijksrelaties en Economische Zaken en Klimaat hierin nauw samen met andere departementen, waaronder Justitie en Veiligheid en Onderwijs, Cultuur en Wetenschap. De visie beschrijft de impact op de samenleving en belicht de verschillende juridische, ethische en technische gevolgen van deze technologie.
Visie op generatieve AI
Vanwege het grote politieke en maatschappelijke belang is er gekozen voor een open dialoog met verschillende stakeholders, zoals de EU, wetenschappers, het bedrijfsleven, onderwijsinstellingen, maatschappelijke organisaties en burgers. De inzichten die in verschillende bijeenkomsten met stakeholders, zoals sectorsessies, burgerbijeenkomsten en ECP begeleidingsethieksessies, worden opgedaan worden op hun beurt weer getoetst door een breed samengestelde klankbordgroep. Het doel is om te komen tot een visie op generatieve AI die een weerspiegeling is van de verschillende perspectieven die zijn ingebracht.
Wilt u actief op de hoogte blijven van dit visietraject, meepraten en uw mening geven?
Word dan lid van de online community generatieve AI: generatieveai.pleio.nl
Hopelijk komt men tot een visie waarin concurrentievermogen niet tegenover ethiek en waarden komt te staan, maar wordt de symbiose gezocht: een robuuste, ethische AI zal op de lange termijn concurrerender zijn, omdat het het vertrouwen en respect van het publiek zal winnen en behouden.
Dan moet je alleen niet bang zijn voor AI in al haar vormen. Leidende principes zouden kunnen zijn:
1. Mensgerichte AI: AI en geautomatiseerde systemen moeten altijd ontworpen en ingezet worden op manieren die de menselijke autonomie respecteren en bevorderen. Elke toepassing van AI moet de fundamentele rechten en waardigheid van de mens respecteren.
2. Transparantie: We moeten streven naar een volledige transparantie in onze AI-systemen. Dit betekent dat we duidelijk moeten zijn over hoe onze technologie werkt en hoe het wordt gebruikt, om zo het vertrouwen van het publiek te winnen en te behouden.
3. Privacy en Veiligheid: Privacy en veiligheid moeten op het hoogste niveau gegarandeerd worden in elke fase van AI-ontwikkeling. We moeten streven naar sterke data-encryptie en strenge privacyregels om de gevoelige informatie van individuen te beschermen.
4. Regelgevende naleving: Hoewel het wereldtoneel regelloos kan lijken, moeten we de bestaande regels en normen respecteren en naleven. Als er geen specifieke regels zijn, moeten we ons houden aan de geest van bestaande regelgeving en de waarden die ze vertegenwoordigen.
5. Continue evaluatie en leren: De wereld van AI is dynamisch en verandert snel. Daarom moeten we voortdurend onze AI-systemen evalueren en verbeteren om ervoor te zorgen dat ze ethisch en effectief blijven.
Concreet zou de Staat er goed aan doen gewoon te BEGINNEN. Pas gewoon eens de richtlijnen van het iShare.eu framework toe en probeer het hoofd te krijgen om eventuele delta’s. Dit van oorsprong Nederlandse initiatief richt zich al op het creëren van een gestandaardiseerde en veilige omgeving voor datadeling. Je zult data vanuit verschillende entiteiten moeten delen om er een algoritme op los te kunnen laten. Dus je hebt sowieso een notie van data uitwisseling nodig. Zet daar nou eens in op Uniforme Data Uitwisseling als architectuurprincipe. Generatieve AI vereist toegang tot uitgebreide datasets om goed te kunnen functioneren. iSHARE, met haar afsprakenstelsel, kan de uitwisseling van deze data faciliteren op een gestandaardiseerde en veilige manier, waardoor de barrières voor het verkrijgen van vereiste data worden verlaagd. Een andere zorg bij AI is datagebruik en -beveiliging. iSHARE biedt een vertrouwde omgeving voor datadeling, waarbij de integriteit en privacy van data zijn gewaarborgd. Dit is essentieel voor het onderhouden van publiek vertrouwen in AI-toepassingen. iSHARE zorgt ook voor een uniforme interpretatie van wettelijke en contractuele afspraken, waardoor naleving van regelgeving en ethische normen wordt gewaarborgd – ook bij het gebruik van (narrow) AI die met (bekende) datasets zou moeten werken. Nu kun je een rating gaan geven aan de waarschijnlijkheid van een outcome. We zouden, net als bij televisie programma’s, de waarschijnlijkheid (Level of Trust met Level of Assurance) kunnen aangeven. iSHARE kan ook de samenwerking tussen verschillende entiteiten bevorderen door het gemakkelijker te maken data te delen. Dit kan helpen bij de ontwikkeling en implementatie van geavanceerdere AI-systemen. Zo kan iSHARE nu al helpen bij het verbeteren van de transparantie van AI-systemen door duidelijke en uniforme regels voor datadeling te stellen, wat cruciaal is voor het waarborgen van ethiek en vertrouwen in AI. Bevorder transparantie: weet hoe de AI werkt, welke gegevens het gebruikt, hoe die gegevens worden verwerkt en hoe beslissingen worden gemaakt. Investeer in een beoordelingssysteem dat de nauwkeurigheid van de AI kan beoordelen, bijvoorbeeld door het AI-systeem te testen met bekende datasets en te kijken hoe goed het presteert en die uitkomsten te publiceren als referentie. Bereken hoe het AI-systeem omgaat met gevoelige gegevens, of het de privacy van de gebruiker respecteert en of het vooringenomenheid en discriminatie vermijdt. (wat brede acceptatie van data standaarden, zoals ISO 8000 vereist, want wat de een discriminatie vindt, is traditie voor de ander. Context = key) Veiligheid is een andere belangrijke factor. Dit zou kunnen betekenen dat er wordt gekeken naar hoe goed het AI-systeem bestand is tegen aanvallen, of het veilig omgaat met gegevens en of het veiligheidsrisico’s kan identificeren en beheren.
Beoordeling op het naleven van de relevante regelgeving zal nog een behoorlijke kluif worden. Dit kan variëren afhankelijk van de specifieke toepassing en het rechtsgebied, maar het kan bijvoorbeeld inhouden het controleren op naleving van gegevensbeschermingswetten. Waar wordt de AI gehost? Onder welk recht vallen de algoritmen? Op sommige social media mag je wel een foto zetten van een geweer, maar niet het woord pussy gebruiken. Uiteindelijk zou het dus moeten gaan om het kunnen meten van de bredere impact van het AI-systeem op de samenleving. Bijvoorbeeld de mate waarin het AI-systeem bijdraagt aan sociale vooruitgang, of het banen creëert of vernietigt en de mate waarin het de menselijke autonomie respecteert. Dit alles vraagt het opdoen van kennis van vertrouwensankers.
Vertrouwensankers zouden kunnen zijn:
– Certificering door erkende en onpartijdige instanties.
– Open source algoritmes, waarbij de onderliggende code en werking transparant zijn.
– Gebruik van expliciete ethische principes en richtlijnen bij de ontwikkeling van AI.
– Positieve feedback en beoordelingen van de gebruikersgemeenschap.
– Bewezen naleving van regelgeving en standaarden.
– Een duidelijk beleid voor gegevensbeheer en -beveiliging.
En dat dan weer aangepast aan de specifieke context en behoeften van de gebruikers en belanghebbenden. Er zijn alleen al 15000 Large Language Models momenteel. Never a dull moment ;-)