Hoe willen we AI inzetten voor onze samenleving?
Wie heeft er niet gehoord van ChatGPT? Eén van de generatieve kunstmatige intelligentietoepassingen waar werkelijk iedereen het nu over heeft. Het is een nieuwe manier om met computers te communiceren. De snelheid waarmee technologie op ons afkomt vraagt om een dialoog over veilig en verantwoordelijk gebruik. En ook rijst de vraag: wat kunt u er als overheid mee? De ontwikkeling van generatieve AI-modellen maakt momenteel een ware innovatiegolf los.
We zijn al best lang bezig met de implementatie van AI-toepassingen, terwijl de ontwikkeling van generatieve AI voor een versnelling zorgt in oneindig veel nieuwe mogelijkheden. Ondanks dat het veel vragen oproept, is nu de kans om na te denken hoe we deze nieuwe technologie kunnen inzetten in de dagelijkse processen.
Laten we eerst eens kijken naar wat kan. Generatieve kunstmatige intelligentie is een nieuwe manier om met computers te communiceren. U kunt de opdracht geven: schrijf voor mij een artikel, vat voor mij een artikel samen in 200 woorden, of maak voor mij een afbeelding bij dit rapport, en de AI-toepassing gaat aan slag. Generatieve AI kan een gesprek voeren in vrijwel elke taal en is uitmuntend in het produceren van artikelen en tekst, het samenvatten van documenten alsook het produceren van computercode en afbeeldingen.
Zo kan een nationale verzekeraar met duizenden telefoontjes per dag, gebruikmaken van generatieve AI om de vragen, antwoorden en afspraken van cliënten samen te vatten en op te slaan in het CRM-systeem. Medewerkers hoeven dit niet meer achteraf zelf te doen wat vaak veel tijd kost. Binnen overheden zijn vergelijkbare situaties en processen te vinden waarbij AI-toepassingen de druk op afdelingen kan verlichten, waardoor de dienstverlening kan worden verbeterd.
Hoog en laag risico
De opkomst van deze nieuwe technologie biedt ons de kans om te leren van de impact op processen en mensen. Hoe zorgen we dat we AI verantwoord en veilig inzetten? Want ondanks de vele voordelen moeten we ook nadenken over de risico’s. Om te beginnen is het belangrijk om onderscheid te maken tussen hoge en lage risico’s.
Neem het ministerie van Justitie in Portugal. Zij ontwikkelden een AI-toepassing over familierecht. Een app geeft antwoord op vragen over dit zeer specifieke onderwerp. Niets meer en niets minder. Mensen die vragen hebben over echtscheiding, ouderlijk gezag of ander familierecht krijgen direct antwoord op hun vraag in plaats van vele webpagina’s te moeten doorzoeken. De antwoorden komen nog steeds van de publieke website maar is vele malen toegankelijker gemaakt. In dit scenario spreken we van een laag risico.
Wanneer AI vanuit de Belastingdienst communiceert of een ziekenhuis gebruikt AI-toepassingen voor een medisch advies, dan spreken we van een hoog risico. Het blijft altijd belangrijk om zelf mee te kijken. Vertrouwen speelt een belangrijke rol. Hoe gaat u hier als overheid mee om? Deze tijd biedt de kans om te leren: wat is de impact van technologie?
Als overheid aan de slag
Een ander belangrijk element in het gebruik van generatieve AI-toepassingen is het lerend vermogen. Je wilt geen gevoelige informatie in ChatGPT delen zonder dat goed is nagedacht over de veiligheid van de data die worden gebruikt. Het is daarom essentieel alleen gebruik te maken van een omgeving die is goedgekeurd volgens geldende wet- en regelgeving als de AVG. Een manier om dat te doen is via het OpenAI platform op Microsoft Azure. Microsoft heeft nooit zomaar toegang tot uw data, dat is contractueel vastgelegd. De data worden niet gebruikt voor het trainen van generatieve AI. Het gebruik van de AI-toepassing vindt als het ware plaats in een ommuurde tuin waardoor de veiligheid en de privacy van de data is gewaarborgd. Op die manier creëren we een veilige proeftuin om te ervaren wat de mogelijkheden ons vandaag en morgen kunnen brengen.
Door nu aan de slag te gaan in uw eigen veilige proeftuin, geeft u ontwikkelaars de kans om te leren en vooral na te denken over de vraag: hoe zetten we generatieve AI in voor onze samenleving. Wat willen en kunnen we ermee? Welke voordelen zijn er? Welke gevaren? ChatGPT kan niet alleen tekst genereren, maar zoals gezegd ook computercode. Waardoor er dus ook cyberaanvallen mee gepleegd kunnen worden. Het is zaak om uw organisatie goed te beschermen.
Impact
Sommige output van AI kan de vooroordelen die al in de samenleving aanwezig zijn bevestigen. Het gaat hier om ethische vraagstukken. Hoe blijven we inclusief en hoe voorkomen we de verspreiding van desinformatie? In hoeverre is iets dat u ontvangt in uw mailbox of leest op sociale media nog waar? Dit zijn uitdagende vragen. Het ontwikkelen van regelgeving om misbruik te voorkomen en het stellen van voorwaarden aan verantwoord gebruik vormen hierbij het startpunt.
Daar ligt een rol voor de overheid, de (technologie)bedrijven én de gebruikers. Met elkaar gaan we de komende tijd leren wat de impact is. De eerste stap is daarom goed begrijpen wat de mogelijkheden en risico’s zijn. Alleen dan kunnen we goed geïnformeerd een manier vinden om de voordelen te benutten en nadelen zo veel mogelijk naar de achtergrond te dringen. Het doel is dat AI ons leven leuker gaat maken.
6 Principes voor verantwoorde AI
Microsoft hanteert zes principes die de ontwikkeling en het gebruik van (generatieve) AI sturen: eerlijkheid, betrouwbaarheid & veiligheid, privacy & beveiliging, inclusiviteit, transparantie en verantwoordingsplicht. Deze principes zorgen voor een veilige en betrouwbare benadering van AI. Belangrijk, nu intelligente technologie steeds vaker dagelijks gebruikt wordt.