Data en ai
Nieuws

Commissie Digitale Zaken roept kabinet op haast te maken met AI-strategie

Hind Dekker-Abdulaziz (D66) en Queeny Rajkowski (VVD) dienden gisterenavond moties in om het kabinet te stimuleren de negatieve gevolgen van kunstmatige intelligentie voor de samenleving te inventariseren. Minister Adriaansens (EZK) zei positief te zijn over beide moties en deze in de Kamer in stemming te brengen.

Hind Dekker-Abdulaziz in haar motie. “De ontwikkeling van AI-gedreven hard- en of software zoals generatieve AI is in een versnelling beland. | Beeld: D66

“Het huidige strategische actieplan voor artificiële intelligentie dateert uit 2019 en is ver achterhaald. Dat actieplan doet geen recht aan de actuele situatie”, oordeelde Dekker-Abdulaziz in haar motie. “De ontwikkeling van AI-gedreven hard- en of software zoals generatieve AI is in een versnelling beland. Nu al worden er toepassingen op de markt gebracht die van grote waarde kunnen zijn, maar de inzet van AI brengt ook risico’s met zich mee, zeker binnen de overheid.”

Rajkowski uitte met haar motie zorgen over de tijd die het nog gaat duren voordat de Europese AI-act en de productaansprakelijkheid in Nederland van toepassing is. Daarom moet het kabinet nu proactief met dat onderwerp aan de slag en verantwoordelijkheid nemen om de risico’s van AI voor de samenleving te verkleinen. Ze wil dat de Tweede Kamer daar voor de zomer nog over wordt geïnformeerd.

Geen nieuw AI-coördinatiecentrum

Een motie van PVV-parlementariër Dania van Weerdenburg raadde de minister af. Van Weerdenburg pleitte – net zoals in het commissiedebat eind januari – voor het instellen van een coördinatiecentrum rondom AI dat “beleidsdirecties, toezichthouders en uitvoeringsorganisaties een structuur moet bieden om regelmatig met elkaar in contact te treden en van elkaar te leren, kennis bij elkaar te brengen en tevens richting kan aanbrengen voor de overheid in relevante vraagstukken.” Van Weerdenburg verwees daarbij naar het advies van de Wetenschappelijke Raad voor het Regeringsbeleid (WRR) die daar ook al voor pleitte.

Momentum voor gesprek

Gisteren publiceerde de organisatie Future of Life een open brief van waarin prominenten uit bedrijfsleven en wetenschap pleiten voor minimaal een half jaar pauze bij de ontwikkeling van nieuwe krachtigere AI-modellen dan GPT-4.
Of een pauze van de AI-ontwikkeling de oplossing is, wordt door velen betwist. Veelal wordt daarbij gewezen op de ontwikkelingen elders in de wereld (o.a. China) die in hoog tempo doorgaan. sleutel is. Duidelijk wordt wel dat een ieder zich begint te realiseren dat we aan de vooravond van risicovolle scenario’s voor de toekomst staan. Meer dan ooit is het momentum voor gesprek en duidelijke keuzes aangebroken.

  • Vincent Hoek | 2 april 2023, 08:57

    Er zijn drie manieren waarop technologie macht oplegt, door vrije keuzes te ontnemen:
    . De gebruiker wordt beperkt door de gebruiksregels van de technologie, die buiten zijn vrije wil ligt. The Medium is the Message.
    . De gebruiker wordt beperkt in zijn perceptie van de wereld, omdat algoritmes ons beeld filteren, wat onze perceptie ongemerkt aanpast.
    .Nieuws wordt digitaal, geautomatiseerd verzameld, geaggregeerd en verspreid.
    Je kunt geen politiek belang hechten aan zaken die je niet weet.
    Al in de periode 1940-1950 schreef Isaac Asimov in het tijdschrift ‘Astounding Science Fiction’ zijn verhalen, die een griezelig ontzag geven voor het feit dat koude logica in principe alles kan bewijzen. Al naar gelang de uitgangspunten. Asimov probeerde die latente dreiging al in te perken met drie ethische wetten:
    1. Een robot mag een mens geen letsel toebrengen, noch laten overkomen.
    2. Een robot moet door mensen gegeven orders uitvoeren, behalve als die orders in strijd zijn met de Eerste Wet
    3. Een robot moet zichzelf beschermen, voor zover dat niet in strijd is met de Eerste en de Tweede Wet.
    Die regels maken uiteindelijk weinig uit, omdat zij elkaar door pure logica kunnen ontkrachten, wat dan ook de reden werd voor Asimovs ‘Nulde Wet’:
    4. Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn eigen nalatigheid.
    De ‘Nulde Wet’ werd hiërarchisch boven de Eerste Wet geplaatst, maar bleek onvoldoende. Robots hebben uiteindelijk geen andere optie dan zichzelf ‘uit’ zetten. Ethiek en logica staan gewoon op gespannen voet. Menselijk gedrag is niet logisch, terwijl machines juist functioneren en interacteren bij de gratie van logica.
    Logica maakt dat je je Vrije Wil verliest omdat algoritmen écht besluiten voor mensen nemen die wij helemaal niet willen of in alle zelfbewustzijn echt anders zouden hebben genomen. Als algoritmes ons ook morele eisen kunnen opleggen, gaan we dood. Je moet machinelogica ook kunnen doorbreken in wetenschappelijke discussies over atheïsme, of in discussies tussen politieke dissidenten, of in fundamenteel onderzoek dat bestaande business modellen bedreigt. Zonder creatieve experimenten en falsificatie, zonder de chaos van creative destruction binnen de wetenschappelijke methode, gaan innovatie en creativiteit dood. De contextuele achtergrond maakt ook dat ethiek niet universeel is. Zij hoeft niet te gelden voor de mensen buiten een bepaalde, beperkte focusgroep. Ethische afspraken hoeven bijvoorbeeld niet bij te dragen aan tolerantie, wat uiteindelijk niet meer is dan een bewuste wapenstilstand tussen ongelijksoortige actoren: “Agree to Disagree”. De vraag gaat dus niet om AI, maar om ethiek binnen programmeerbare logica. Robot moraliteit is alleen geen binaire schakeling, maar de afweging van wenselijke consequenties van microrisico’s binnen een grid van conflicterende alternatieven. Hoe pleeg jij zelfmoord met een robot die blindelings naar jou moet luisteren, maar jou ook geen kwaad mag doen? Wie redt een robot als hij maar één van twee mensen in eenzelfde situatie kan redden, maar toch niemand mag laten sterven? Gaat het opzettelijk toebrengen van een verwonding voor het uitvoeren van een levensreddende operatie in tegen de Eerste Wet van Asimov?
    Virtuele organisaties hebben de manier veranderd waarop mensen samenwerken. Zij kunnen digitaal zijn ingericht op het overdragen en/of ontsluiten van gegevens, op basis van verregaande standaardisatie van proces en inhoud, toewerkend naar een gegeven doel, op basis van gereguleerde in- en uitsluiting van samenwerkende partijen en zij kunnen data verwerken met real-time intensiteit, omvang en voorspelbaarheid. ‘Meat-Space’ organisaties, zoals politieke partijen, zijn daar mentaal helemaal niet aan toe. Het gevolg is dat het beangstigend eenvoudig is geworden om de publieke opinie digitaal te beïnvloeden, door ons vrije discours vrijwel onzichtbaar te injecteren met Fake News via trollen, tekstbots en chatbots. De gebruiker wordt sluipenderwijs beperkt in zijn vrije sfeer doordat alle levenstekenen digitaal verzameld, gecategoriseerd en combineerbaar en doorzoekbaar worden gemaakt. Elke reis in het OV is bekend. Elke locatie van je telefoon. Iedereen die je belde. Elk pinbedrag. Jouw hartslagpatroon en hardlooproute en de muziekstijl die je daarbij op had. De feiten van ons leven worden verzameld als data en opgeslagen in databases, zonder dat je er verder meer bij kunt of maar hoeft te weten dat het gebeurt. Daarna worden die data gebruikt om bovenstaande twee factoren te verfijnen. Activiteiten met concrete gevolgen voor democratische machtsverhoudingen, legitimiteit en vertrouwen in de Rechtsstaat. Alleen al weten dat je bekeken wordt, leidt tot gedragsverandering. Er wordt minder geknokt in het uitgaansleven, minder hard gereden in het verkeer. Er wordt minder gerookt en gevreeën op het vliegtuigtoilet, minder gefilmd zonder je gezicht te bedekken en zelfs de mode verandert nu sommige jeugdgroepen zwarte strepen over hun gezicht trekken om biometrische gezichtsherkenning te frustreren. Technologie verandert hoe wij samenleven en keuzes maken sneller dan wij begrijpen. Woorden zoals ‘democratie’, ‘macht’ en ‘identiteit’ dekken allang niet meer de lading. Zij hebben andere connotaties gekregen, dus om enigszins morele randvoorwaarden te programmeren, moeten we terug naar de essentie. De bedoeling bijvoorbeeld van democratie, is het organiseren van de gezaghebbende toedeling van waarden, binnen een systeem van verantwoording, op basis van de gelegitimeerde overdracht van de macht tot het maken van wet- en regelgeving. Uiteindelijk gaat het nemen van besluiten dus om het organiseren van de verantwoording over de bijbehorende macht. Juist legitimering verandert met digitalisering nu algoritmes macht over ons hebben. Zogeheten combinatorische of rimpeleffecten ontstaan als je niet vanaf het allereerste begin programmeert voor microrisicomanagement. Elke actie zou eigenlijk maar één mogelijke output moeten kunnen hebben. Zij moet het unieke gevolg zijn van het gebruik van specifieke data, die na een specifiek gedefinieerde trigger, langs een specifieke weg getransporteerd wordt, om die actie in het licht van een voor gedefinieerd, specifiek proces uit te voeren. Complexiteit reducerende Systeemtheorie is onze laatste kans om moraliteit op te nemen in de mogelijkheden van ‘robots’. Dus toch weer Data Governance en dat moesten wij allang inrichten, maar de impact daarvan is wel het moeten onderkennen dat onze 20ste eeuwse functionele-hiërarchie nooit gebouwd wat voor een context- en datacentrisch ecosysteem van echt strakke afspraken rond mandaat en data doelbinding.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren