AI-act ligt op de pijnbank
De Europese Commissie lijkt open te staan voor een tijdelijke versoepeling van de Europese AI-wetgeving. Onder invloed van Amerikaanse diplomatie en stevige lobbydruk van grote techbedrijven onderzoekt Brussel hoe de invoering van de AI Act kan worden ‘verzacht’ zonder het wetgevingskader zelf te ondermijnen.
Het gaat daarbij niet om het schrappen van regels, maar om het tempo en de interpretatie van de implementatie. Volgens bronnen bij de Commissie wordt nagedacht over extra overgangstermijnen, een gefaseerde handhaving en een herziening van de technische uitvoeringsrichtlijnen. Zo zou de Europese markt aantrekkelijk blijven voor internationale innovatiepartners, terwijl de fundamentele doelstelling van de AI Act, namelijk het beschermen van burgers tegen risicovolle toepassingen van kunstmatige intelligentie, overeind blijft.
De balans tussen bescherming en concurrentiekracht
De Europese Unie presenteerde zich de afgelopen jaren graag als wereldwijde koploper op het gebied van AI-regelgeving. Met de AI Act, die op 1 augustus 2024 officieel in werking trad, zette de EU de eerste bindende wettelijke standaard neer voor kunstmatige intelligentie. Het principe: hoe hoger het risico van een AI-toepassing, hoe strenger de regels.
Maar dat leiderschap kent een prijs. Sinds de goedkeuring van de wet door de Raad en het Europees Parlement is de internationale dynamiek rondom AI in rap tempo veranderd. De opkomst van omvangrijke generieke AI-systemen van bedrijven als OpenAI, Anthropic, Meta en Google heeft het speelveld complexer gemaakt. Terwijl Europa worstelt met de uitwerking van zijn eigen kaders, rolt de Verenigde Staten, onder de regering-Trump II, een industrie-vriendelijke benadering uit. Washington dringt er bij Brussel op aan “onnodige handelsbarrières” te vermijden.
Volgens Reuters en Fortune ligt er binnen de Commissie inmiddels een voorstel om onderdelen van de AI Act tijdelijk te bevriezen of te faseren. Vooral de regels rond zogenoemde general-purpose AI (GPAI), systemen die voor uiteenlopende taken kunnen worden ingezet, zouden vertraging kunnen oplopen. Een interne nota zou spreken van een “one-year grace period” voor bedrijven die onder deze categorie vallen.
Druk van de techsector
De druk vanuit de industrie is niet gering. Grote Amerikaanse spelers waarschuwen dat te rigide EU-regels innovatie zouden verplaatsen naar andere markten. Meta, Microsoft en Google-moeder Alphabet voeren al maanden intensieve gesprekken met DG Connect, het directoraat-generaal dat verantwoordelijk is voor de digitale portefeuille. Ook Europese bedrijven en kennisinstellingen sluiten zich aan bij de roep om pragmatiek: de administratieve lasten en onzekerheid over de classificatie van AI-systemen zouden investeringen afremmen.
Een coalitie van technologie-lobbygroepen, waaronder Digital Europe, stuurde in juni 2025 een brief aan Commissievoorzitter Ursula von der Leyen met het verzoek om een “strategische pauze” in de uitrol van de AI Act. De brief, waar Reuters over berichtte, stelt dat “Europa risico loopt zichzelf uit de markt te prijzen door overregulering op een moment dat de mondiale concurrentie verhevigt.”
Binnen de Commissie lijkt dat signaal niet onopgemerkt gebleven. Ambtenaren werken aan een inventarisatie van de uitvoeringsbesluiten die mogelijk kunnen worden herzien of verduidelijkt.
Het Europese proces: van ambitie naar realiteit
De weg naar de AI Act was lang en politiek beladen. Al in 2021 publiceerde de Commissie haar eerste ontwerpvoorstel. Het uitgangspunt was dat Europa de norm zou stellen voor “veilige en betrouwbare AI”, vergelijkbaar met de rol die de GDPR (AVG) speelde voor privacywetgeving. De definitieve tekst van de AI Act werd in mei 2024 goedgekeurd, na moeizame onderhandelingen tussen lidstaten over de classificatie van biometrische surveillance, emotieherkenning en voorspellende politietoepassingen. Op 1 augustus 2024 trad de wet officieel in werking, met een gefaseerde implementatie. Belangrijke uitkomst van de onderhandelingen was dat aanbieders van hoog risico-systemen eenzijdig konden beslissen of hun systeem hiertoe behoorde, maar een eventuele vrijstelling wel gemeld moest worden in een openbaar toegankelijke database.
- Vanaf 2 februari 2025 gelden de eerste verbodsbepalingen (zoals sociale scoring of manipulerende systemen).
- In augustus 2026 volgen de verplichtingen voor ‘hoog-risico’ AI-systemen in sectoren als zorg, vervoer en rechtspraak.
- De bepalingen voor ‘general-purpose AI’ treden pas in 2027 volledig in werking.
Die tijdlijn bood ruimte voor aanpassing, maar ook onzekerheid. Lidstaten verschillen onderling in capaciteit en kennis, terwijl nationale toezichthouders nog in opbouw zijn. Voor bedrijven, zeker buiten de EU, is het onduidelijk hoe ver de verplichtingen zullen reiken.
Amerikaanse druk en geopolitieke context
De hernieuwde Amerikaanse druk kwam in de zomer van 2025 in een stroomversnelling. In juli vond in Brussel een EU-US Trade and Technology Council (TTC)-bijeenkomst plaats. Daar drong de Amerikaanse delegatie aan op “regelgevende convergentie” en waarschuwde voor fragmentatie van de wereldwijde AI-markt.
Volgens diplomatieke bronnen, aangehaald door Euronews, overweegt de Commissie een “herijking” van haar aanpak, mede om Europese bedrijven niet op achterstand te zetten tegenover Amerikaanse en Chinese concurrenten.
Innovatiebevorderende maatregelen
Parallel aan het debat over versoepeling werkt Brussel aan maatregelen om Europese innovatie te stimuleren. In oktober 2025 kondigde de Commissie het programma “AI Made in Europe” aan, dat onderzoeksfinanciering, testfaciliteiten en publieke-private samenwerkingen bundelt. Ook wordt gewerkt aan een zogeheten AI Code of Practice, een vrijwillig kader dat bedrijven kan helpen de wet in de praktijk te implementeren zonder direct in overtreding te zijn. Volgens AP News is het doel van deze code om een brug te slaan tussen zelfregulering en wettelijke naleving, vergelijkbaar met de “sandbox-benadering” die eerder bij fintech werd toegepast.
Kritiek
Niet iedereen is te spreken over de mogelijke versoepeling. Europarlementariërs uit de groene en sociaaldemocratische fracties waarschuwen dat “elke vertraging een risico vormt voor de geloofwaardigheid van Europa als regelgevende macht.” Ook burgerrechtenorganisaties zoals EDRi en Access Now benadrukken dat de AI Act juist bedoeld is om burgers te beschermen tegen de macht van Big Tech, en niet om die macht te accommoderen. Zij vrezen dat een te grote tegemoetkoming aan Amerikaanse bedrijven de geest van de wet uitholt.
Met de wijziging van artikel 49 wordt volgens Daniel Leufer van Acces Now de verplichting geschrapt om systemen met een hoog risico te registreren. Het wordt nu heel simpel voor aanbieders, met ingrijpende gevolgen voor de mensenrechten. ‘Ze kunnen nu simpelweg besluiten dat hun systemen geen significant risico vormen en hoeven zich simpelweg niet aan waarborgen en verplichtingen te houden’, schrijft hij op LinkedIn.
“Op de pijnbank”
De huidige koers roept fundamentele vragen op over de rol van Europa in het mondiale technologische landschap. Wil de EU een ethisch kompas blijven bieden, of schuift zij op naar een meer marktgerichte benadering, onder invloed van trans-Atlantische belangen?
De Europese Commissie staat op een kruispunt. Enerzijds is er de roep om consistentie en geloofwaardigheid van de AI Act als wereldwijd voorbeeld. Anderzijds de politieke realiteit van een veranderend geopolitiek en economisch speelveld, waarin samenwerking met de Verenigde Staten onmisbaar blijft. De komende maanden zullen cruciaal zijn. Zodra de Commissie haar interne evaluatie afrondt en een eventueel aanpassingsvoorstel naar het Parlement stuurt, zal blijken of Europa vasthoudt aan zijn ambitie van verantwoord technologisch leiderschap of dat ze kiest voor een strategische pauze onder internationale druk.
Lees ook: