Diverse prominente CEO's, hoogleraren en co-founders van grote IT-bedrijven, waaronder Elon Musk, Yuval Noah Harari en Steve Wozniak, roepen in een open brief alle AI-labs op om per direct minimaal 6 maanden te pauzeren met het trainen van AI-systemen die krachtiger zijn dan GPT-4. Zo niet, dan moeten regeringen ingrijpen en een moratorium instellen.
Moeten we niet-menselijke geesten ontwikkelen die ons te slim af zijn en ons kunnen vervangen? | Beeld: Shutterstock
AI-labs hebben de afgelopen maanden een race ingezet om steeds krachtigere digitale geesten te ontwikkelen, die ze de ontwikkelaars zelf niet eens meer kunnen controleren, constateren de opstellers. Deze mens-concurrerende systemen kunnen leiden tot ingrijpende veranderingen in de geschiedenis van het leven op aarde. De ontwikkeling van AI-systemen moet beter worden gepland en beheerd, stellen ze. Inmiddels staan meer dan duizend handtekeningen onder de open brief van de organisatie Future of Life1.
Belangrijke beslissingen
‘Moeten we machines onze informatiekanalen laten overspoelen met propaganda en onwaarheid? Moeten we alle banen automatiseren, inclusief de vervullende? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, te slim af zijn, achterhaald zijn en ons kunnen vervangen? Moeten we het risico lopen de controle over onze beschaving te verliezen?’
De pauze zou gebruikt moeten worden om gezamenlijk een reeks gedeelde veiligheidsprotocollen te ontwikkelen.
‘Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-gekozen technologieleiders. Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico’s beheersbaar zullen zijn. Dit vertrouwen moet goed gerechtvaardigd zijn en toenemen met de omvang van de potentiële effecten van een systeem. OpenAI’s recente verklaring met betrekking tot kunstmatige algemene intelligentie stelt: “Op een gegeven moment kan het belangrijk zijn om een onafhankelijke beoordeling te krijgen voordat we beginnen met het trainen van toekomstige systemen, en voor de meest geavanceerde inspanningen om overeen te komen om de groeisnelheid van computers die worden gebruikt voor het maken van nieuwe modellen.” Wij zijn het eens. Dat punt is nu.’
Veiligheidsprotocollen ontwikkelen
De pauze zou gebruikt moeten worden om gezamenlijk een reeks gedeelde veiligheidsprotocollen te ontwikkelen en te implementeren voor geavanceerd AI-ontwerp en -ontwikkeling. Deze protocollen moeten ervoor zorgen dat systemen die zich eraan houden zonder enige twijfel veilig zijn.
AI-governancesystemen
‘Tegelijkertijd moeten AI-ontwikkelaars samenwerken met beleidsmakers om de ontwikkeling van robuuste AI-governancesystemen drastisch te versnellen.’ Deze moeten volgens de opstellers ten minste het volgende omvatten:
- nieuwe en capabele regelgevende instanties die zich toeleggen op AI
- toezicht houden op en volgen van zeer capabele AI-systemen en grote pools van rekencapaciteit
- herkomst- en watermerksystemen om echt van synthetisch te onderscheiden en modellekken op te sporen
- een robuust audit- en certificeringsecosysteem; aansprakelijkheid voor door AI veroorzaakte schade; robuuste overheidsfinanciering voor technisch AI-veiligheidsonderzoek
- goed toegeruste instellingen om het hoofd te bieden aan de dramatische economische en politieke ontwrichtingen (vooral voor de democratie) die AI zal veroorzaken
Klik HIER voor de volledige tekst van de open brief
Debat op radio 1
Naar aanleiding van de open brief werd op radio 1 in het programma Stand.nl de stelling besproken ‘Kunstmatige intelligentie ontwikkelt zich te snel’. Lousewies van der Laan, directeur Transparency International Nederland , zei blij te zijn met de brief. “Technologie gaat sneller dan beleid. De politiek moet een kader gaan scheppen om er voor de zorgen dat AI de mens en de samenleving gaat dienen.” Onder andere Rob van den Hoven van Genderen (hoogleraar AI & Robotlaw) stelde juist dat we ons niet zo’n zorgen moesten maken, toezicht is van belang, maar wetgeving komt altijd achter technologische ontwikkelingen aan. Een pauze van zes maanden zou andere IT-grootmachten, als bijvoorbeeld China, een enorme voorsprong geven.
[1] Future of Life is in 2015 opgericht om aandacht te vragen voor het inperken van de risico’s van baanbrekende technologie en te zorgen dat de maatschappij vooral de voordelen van die technologie kan benutten.
Is het niet een beetje onrealistisch om te veronderstellen dat je veiligheidsprotocollen en “robuuste governance-systemen” binnen een half jaar zou kunnen ontwikkelen? Met andere woorden, is deze oproep (in elk geval voor zover afkomstig van techreuzen) niet een beetje gratuit? Het zou naar mijn idee juist getuigen van maatschappelijke verantwoordelijkheid als de partijen zelf een moratorium zouden afspreken en tot voorstellen komen die ze aan gekozen leiders kunnen voorleggen ter bekrachtiging. Zij hebben immers de kennis in huis.
Je traint AI’s, zoals GPT (een Large Language Model – LLM) met data, dus als we er zo bang voor zijn, moeten we eindelijk eens Data Governance in gaan richten. Moesten we toch al voor de AVG en zeker voor de aankomende EU Data Act. Dus aub niet meer regelgeving, maar eindelijk eens regelgeving toepassen. Zorg voor data kwaliteit! (ISO 8000 + GoFAIR is een mooi begin). Implementeer strikt beleid voor toegang tot en delen van gegevens. Weet exact wie de data eigenaar, de data leverancier en de data consument is (ishare.eu helpt). Zorg dat alleen geautoriseerd personeel (dat ook aantoonbaar weet wat het doet!) toegang mag en kan krijgen tot gevoelige informatie. Drag-n-drop algoritme slepen met PowerBI is GEEN Data Science. Weet hoe je data je organisatie in en uit kunnen stromen (ken je 3e, 4e, 5e factor risico’s) Investeer dus in 5e generatie identiteit middelen: CIAM bijvoorbeeld). Anonimiseer gegevens. Gebruik Zero Knowledge Proof. Zorg dat je data versleuteld zijn: in ruste, tijdens transport en tijdens gebruik. (Ja, voor Confidential Compute is dat een stuk beter in te regelen in een moderne cloud en nee, een cloud is niet je OneDrive in de Sky. Het kan veel meer!) Vervangen al je persoonlijk identificeerbare informatie (PII) door pseudoniemen of aggregatie. Dat kan al een jaar of 10 en is niet duur.
Vermijd het gebruik van LLM’s om gevoelige gegevens te verwerken, omdat de output die door deze modellen wordt gegenereerd, onbedoeld vertrouwelijke informatie kan onthullen, maar ook totale biased bagger op kan leveren als de input sowieso al kwalitatief uitermate teleurstellend is. Zet gespecialiseerde privacybeschermende AI-oplossingen in die juist zijn ontworpen om gevoelige gegevens te verwerken. Ook Blockchain technologie, Confidential AI, Confidential data analytics, Privacy preserving ML, Secure hardware design, Side-channel resilience, Software security and memory safety, Verified security en crypotgrafie zijn allang te koop.
Voor de rest: remember Darwin! De geest is uit de fles, wordt er vrienden mee.