Rathenau waarschuwt voor onoverdacht gebruik van AI
Rathenau Instituut acht de kans reëel dat het huidige en aangekondigde beleid, waaronder de aanstaande Europese AI-verordening (AI Act), niet voldoende is om de risico’s van generatieve AI-systemen tegen te gaan. Het adviseert beleidsmakers en politici om nationaal en Europees beleid door te lichten en aan te scherpen, en met de AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen.
De bedrijven die toepassingen voor generatieve AI ontwikkelen, lijken het adagium ‘move fast and break things’ te volgen, concludeert Rathenau. ‘Ze introduceren toepassingen in de samenleving en zien vervolgens wel wat er precies mee gebeurt. Dit is riskant. Zonder mitigerend beleid kunnen de schadelijke effecten van GAI-toepassingen de overhand nemen.’
Organisaties, bedrijven en burgers moeten zich afvragen of ze generatieve AI verantwoord kunnen gebruiken. Er kleven veel risico’s aan, zoals discriminatie en onveiligheid. Ook staan we voor grote vragen met betrekking tot intellectueel eigendom en menselijke ontwikkeling. Er is een maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E, stelt Rathenau Instituut.
De invloed van enkele grote technologiebedrijven was al groot in maatschappelijke domeinen als de zorg of het onderwijs, maar breidt zich ondertussen verder uit naar de wetenschap. Generatieve AI gaat de gehele samenleving raken en daarmee ook tal van
publieke waarden. Het gaat druk zetten op democratische processen zoals de toegang tot kennis, de nieuwsvoorziening en het publieke debat, en wordt het nog lastiger om democratische zeggenschap te krijgen.
Scan over generatieve AI
“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus themacoördinator Linda Kool. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”
Vijf handelingsopties voor het nieuwe kabinet
Het Rathenau Instituut geeft het kabinet vijf handelingsopties mee om haar strategie vorm te geven:
1. Zorg voor een rem op de toepassing en uitrol van GAI-producten. Creëer het vermogen om schadelijke generatieve AI-toepassingen van de markt te halen
- Abstracte normen uit de AI-verordening moeten concreet gemaakt worden. Betrek de politiek en de samenleving hierbij
- Monitor of aanvullende eisen nodig zijn, zoals voorafgaande consultatie, vergunningen of bepaalde verboden
2. Zorg voor toekomstbestendige juridische kaders
- Evalueer juridische kaders op het gebied van dataprotectie, discriminatie, veiligheid, deepfakes, auteursrecht en mededinging
- Zorg voor actieve handhaving van bestaande kaders en zorg dat toezichthouders daar de middelen voor hebben
3. Investeer in internationaal AI-beleid, om mondiale innovatieprocessen van technologiebedrijven bij te sturen
- Kom op korte termijn tot vrijwillige afspraken met niet-Europese landen over maatschappelijk verantwoorde ontwikkeling en toepassingen van generatieve AI
- Blijf investeren in bindende internationale afspraken en betrek hier bij de OESO-richtlijnen voor maatschappelijk verantwoord ondernemen
4. Stel een ambitieuze agenda op voor maatschappelijk verantwoorde generatieve AI
- Investeer in alternatieve technologie om democratische sturing op generatieve AI te vergroten
- Monitor en begeleid de ontwikkeling van generatieve AI per sector
5. Stimuleer maatschappelijk debat over de wenselijkheid van generatieve AI
- Versterk technologisch burgerschap
- Ondersteun maatschappelijke normontwikkeling
De Rathenau-publicatie Generatieve AI biedt overzicht van de soorten toepassingen van generatieve AI en de maatschappelijke impact ervan. Generatieve AI-systemen vormen een doorbraak in de digitalisering, omdat ze in tegenstelling tot andere AI-systemen veel verschillende taken kunnen uitvoeren en kunnen werken met verschillende modaliteiten: tekst, beeld en geluid, maar ook met eiwitstructuren of chemische verbindingen. De technologie is aanzienlijk beter in taal dan andere AI-systemen, waardoor mensen door een chatbot kunnen worden aangesproken, vermaakt of verleid, en een AI-systeem ook niet-routinematige taken kan overnemen.
De publicatie is ontwikkeld op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Het onderzoek is gebaseerd op literatuurstudie, werksessies en interviews met deskundigen.