Data en ai
Podium

AI-wetenschappers: Fundamentele gebreken in nieuwste AI-wetsvoorstellen

Overleg in Brussel. | Beeld: Shutterstock

Het is de bedoeling dat Europa de komende maanden de behandeling van de AI Act afrondt. De onderhandelingen verlopen echter moeizaam. Acht wetenschappers en AI-experts vragen aandacht voor fundamentele gebreken in het laatste voorstel van het huidige Spaanse voorzitter. Tegelijk vinden ze het roekeloos om de AI-wet te laten mislukken.

Sinds de vrijgave van ChatGPT aan het publiek werken de EU-instellingen in sneltreinvaart om te reageren op de snelle verspreiding van de generatieve AI-systemen van OpenAI, Google, Meta, Anthropic, Aleph Alpha, Mistral en anderen. Het doel: Zulke systemen opnemen in het toepassingsgebied van de voorgestelde AI-wet, een baanbrekende wet waar al drie jaar aan wordt gewerkt. De wet zou in december worden afgerond in het EU-wetgevingsproces (“de zogenaamde trialoog onderhandelingen”) waarbij de EU-Commissie, het Parlement en de Raad van de EU het eens moeten worden over een compromistekst.

Onderhandelingen verlopen moeizaam

Naar verluidt zijn de onderhandelingen eind vorige week echter stukgelopen. De Raad en het Parlement zouden het niet eens kunnen worden hoe generatieve AI te reguleren. Dergelijke patstelling is niet zonder risico: bijna 500 miljoen mensen dreigen onbeschermd te zullen blijven tegen de bekende gevaren van AI.

Als wegbereider tot een compromis, heeft het huidige Spaanse voorzitterschap van de EU geprobeerd een middenweg te vinden tussen de afwachtende houding van de Raad en het eerdere standpunt van het Parlement om gemeenschappelijke basisregels op te stellen voor alle generatieve AI-systemen, die de Raad ‘AI voor algemene doeleinden’ (GPAI) noemt en het Parlement ‘basismodellen’. In het Spaanse voorstel wordt naar deze systemen verwezen als ‘foundation’ modellen.

Het Spaanse voorstel neigt naar de lijn van de Raad: Alleen GPAI-systemen met een hoog risico zouden onder de strengere bepalingen van de AI-wet moeten vallen

Wanneer is sprake van een hoog risico?

In wezen neigt het Spaanse voorstel naar de lijn van de Raad: Alleen GPAI-systemen met een hoog risico zouden onder de strengere bepalingen van de AI-wet moeten vallen, alle andere systemen zouden slechts onderworpen zijn aan basale transparantieverplichtingen. De grote vraag is dus: wanneer precies houdt een dergelijk “foundation”model een hoog risico?

Volgens het Spaanse voorzitterschap vormen zogenaamde ‘high-impact’ modellen een hoog risico. Een dergelijk model wordt gedefinieerd als een model dat:

  • getraind is met grote hoeveelheden gegevens en met een geavanceerde complexiteit
  • capaciteiten en prestaties vertoont die ver boven het gemiddelde van soortgelijke modellen liggen
  • datasysteemrisico’s door de volledige waardeketen kan verspreiden, ongeacht of het model geïntegreerd is in een systeem met een hoog risico of niet

Vijf fundamentele problemen

Deze kwalificatie is om minstens vijf redenen problematisch.

1. Het voorstel levert een aanzienlijke rechtsonzekerheid op. Criteria zoals “bovengemiddeld”, “grote hoeveelheid gegevens”, “geavanceerde complexiteit, capaciteiten en prestaties” zijn te onnauwkeurig om de invloed van een model op de samenleving te bepalen.

2. Het ontbreekt aan een maatschappelijke dimensie. De voorgestelde criteria verwijzen naar parameters die de technische eigenschappen van een model beschrijven. eerder dan de invloed die deze modellen uitoefenen op de maatschappij, veiligheid of fundamentele rechten. Technische maatstaven zijn onvoldoende robuust om te komen tot een afdoende inschatting van de te verwachten maatschappelijke inwerking. Dit laatste vergt uiteraard technische expertise., maar het zal net zo belangrijk zijn kennis in te winnen bij humane wetenschappers, maatschappelijke organisaties en vertegenwoordigers van getroffen gemeenschappen.. De doeltreffendheid van de de AI-wet steunt op diens vermogen  de verschillende expertises en deskundigen te bundelen en te bekrachtigen.

Een "groot" model is niet noodzakelijk een "onveilig" model.

3. De aanname dat de ‘risicograad’ van een AI-model bedoeld vooralgemene doeleinden kan worden geëxtrapoleerd uit diens grootte, data, complexiteit en capaciteit is ongefundeerd. Ongetwijfeld zijn er specifieke risico’s verbonden aan de grootte van deze modellen. Hun ontwikkeling en inzet behoeft bijvoorbeeld een grote hoeveelheid aan kapitaal. De populariteit van dergelijke modellen dreigt daarom de reeds bestaande machtspositie van de grote spelers in het technologielandschap te bestendigen en versterken. Maar een “groot” model is niet noodzakelijk een “onveilig” model. In feite kan een model veiliger zijn wanneer het steunt op meer geavanceerde technieken en meer diverse data, evenwel onder de voorwaarde dat deze ontwikkelingsprocessen voldoen aan een reeks strenge (juridische) vereisten. Grondrechten, maatschappelijke gevoeligheid, evenals democratische normen en waarden kunnen als leidraad dienen. Zo is het algemeen bekend dat technologie, zonder tegenmaatregelen, maatschappelijke stereotypen en vooroordelen zal overnemen, bestendigen en versterken. Maar dergelijke risico’s kunnen zich ook voordoen bij modellen die op basis van technische specificaties als “gemiddeld” of “kleinschalig” worden aangeduid. Deze zijn dus niet per definitie “veilig” en kunnen veel schade berokkenen.

4. Er ligt een te sterke nadruk op de verantwoordelijkheid van aanbieders. Het ontbreekt aan een verantwoordelijkheidsverdeling met “downstream” gebruikers die hun toepassingen bovenop deze grote modellen bouwen. Sterker nog, volgens het standpunt van het voorzitterschap zouden aanbieders in hun gebruiksvoorwaarden hun verantwoordelijkheid kunnen ontlopen voor het downstream gebruik van hun modellen door derde partijen. Daartoe moeten ze “redelijke  inspanningen” leveren om mogelijk misbruik op te sporen. Echter, gezien de potentiële schaal van adoptie, lijkt deze regeling te zullen uitmonden in een makkelijk achterdeurtje voor ontwikkelingsbedrijven om hunzelf van enige aansprakelijkheid vrij te stellen.

5. De verplichting om toezicht te houden op systeemrisico’s wordt uitgesteld tot een later te bepalen moment in de toekomst, wanneer ”foundation” modellen nog krachtiger worden. Deze focus op de toekomst leidt de aandacht af van de fundamentele problemen die deze modellen en GPAI-systemen vandaag de dag reeds met zich meebrengen, zoals het ongecontroleerde gebruik van openbaar verzamelde privé- en persoonsgegevens, de versterking van structurele ongelijkheid die wordt ervaren door historisch achtergestelde, gemarginaliseerde, kwetsbare of anderszins onderdrukte gemeenschappen, de uitbuiting van gegevenswerkers en de ecologische schade die deze systemen hebben op het milieu. Er zijn voorbeelden in overvloed van risico’s die zich nu al voordoen, zoals het gebruik van AI voor het verspreiden van misinformatie en voeren van politieke destabilisatiecampagnes.

Bij de ontwikkeling en invoering van funderingsmodellen is een complexe waardeketen van actoren betrokken.

Impact en verantwoordelijkheid 

Er zijn goede argumenten om een onderscheid in de mate van verantwoordelijkheid te maken op basis van de mate van impact. Een effectiever alternatief zou zijn om onderscheid te maken tussen impact en verantwoordelijkheden langs de waardeketen en verantwoordelijkheden toe te wijzen voor de impact die de verschillende actoren langs de waardeketen creëren. Bij de ontwikkeling en invoering van funderingsmodellen is een complexe waardeketen van actoren betrokken. In veel gevallen kan de verantwoordelijkheid voor de veiligheid en naleving van grondrechten en de verplichtingen van de AI-wet niet alleen worden toegewezen aan de aanbieder – die cruciale beslissingen neemt over de trainingsgegevens, parameters, training van het model, arbeidsomstandigheden, ecologische voetafdruk enz. – of de uitvoerder  die bepaalt hoe het model in een concrete context wordt gebruikt.

Gedeelde verantwoordelijkheid tussen ontwikkelaars en uitvoerders

Om de resulterende verantwoordingskloof te dichten, is het nodig om een gedeelde verantwoordelijkheid tussen ontwikkelaars en uitvoerders vast te leggen. Op dit punt is het Spaanse voorstel echter onduidelijk. De EU-instellingen zouden dan ook de gedeelde verantwoordelijkheid van ontwikkelaars en uitvoerders moeten definiëren, rekening houdende met de invloed die beide partijen kunnen uitoefenen. De wet voorziet er bovendien niet in dat dat uitvoerders deel zullen uitmaken van het voorgestelde forum voor samenwerking met de ontwikkelaars van ”foundation” modellen om beste praktijken te bespreken en vrijwillige gedragscodes op te stellen. Maar ze zouden er wel deel van moeten uitmaken.

Op dit moment lijkt er een bereidheid te zijn van grote lidstaten om de onderhandelingen over de AI Act op het laatste moment te laten mislukken

Op dit moment lijkt er een bereidheid te zijn van grote lidstaten, in de eerste plaats Duitsland, Frankrijk en Italië, om de onderhandelingen over de AI Act op het laatste moment te laten mislukken, vermoedelijk om Europese bedrijven zoals Aleph Alpha en Mistral te beschermen tegen wat de bedrijven als overregulering bestempelen. Maar elke veronderstelde tegenstelling tussen bescherming van individuele rechten en democratie aan de ene kant en innovatie aan de andere kant is een vals dilemma. Aangezien er goede voorstellen op tafel liggen om deze doelen met elkaar te verzoenen, is het niet alleen volkomen onnodig om de AI-wet te laten mislukken. Het is roekeloos.

 

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren