Data en ai
Blog

Waarom we een AI-bullshit pauze nodig hebben

De open brief is geen pleidooi voor een AI-pauze, maar een commercial voor kunstmatige intelligentie waar de scifi-stemmingmakerij vanaf druipt. | Beeld: Shutterstock

Iedere keer wanneer een nieuwe ChatGPT variant uitkomt zijn we terug bij af. Dan buitelen de media over elkaar heen met ‘intelligentie-explosies’ en robots die de mens overbodig maken. Deze maand bereikten we een nieuw dieptepunt. Grote namen uit de tech-wereld ondertekenden een brief waarin wordt gepleit voor een AI-pauze. Maar de brief zet ons op het verkeerde been en leidt ons af van de daadwerkelijke gevaren van AI.

“Kunnen we niet een pauze voor AI inlassen?” Ik hoor het mijn collega aan de vergadertafel nog zeggen. We bespraken het Rotterdamse fraude-algoritme, dat alleenstaande moeders ten onrechte had aangemerkt als fraudeur. Ik probeerde me voor te stellen hoe zo’n AI-pauze ingevuld zou worden. “Ik zie het niet voor me,” zei ik, “Geld gaat altijd voor, bij voorkeur vermomd als ethiek.”

Wat we niet wisten is dat een week later een open brief zou verschijnen die pleit voor een AI-pauze. De brief, gepubliceerd door het Future of Life Institute, stelt voor om een pauze van zes maanden in te lassen voor het trainen van AI-systemen krachtiger dan GPT-4. Inmiddels zijn er bijna dertigduizend ondertekenaars, waaronder Elon Musk en andere vertegenwoordigers van big tech.

Een betere PR-stunt voor de AI-industrie bestaat niet.

Op de dag van publicatie stond mijn telefoon roodgloeiend: “Heeft u DE BRIEF al gelezen!? Wilt u daar in onze radio-uitzending op reageren?”

Toen ik de brief las viel ik lachend van mijn stoel om er vervolgens weer huilend op te kruipen. Wat ik las was geen pleidooi voor een AI-pauze. Ik las een commercial voor kunstmatige intelligentie waar de scifi-stemmingmakerij vanaf droop. “Kijk eens wat voor geweldig AI-speeltje onze techboys hebben gemaakt. Zelfs zo geweldig dat het de mensheid overbodig dreigt te maken! Scaryyy! Maar don’t worry. Met een pauze maken we AI veilig, zodat u binnenkort uw geestelijke vermogens weer zorgeloos kunt uitbesteden aan onze chatbots, zoekmachines en AI-beeldgeneratoren.”

Een betere PR-stunt voor de AI-industrie bestaat niet. Ik hoop dat we de ironie daarvan inzien.

AI-experts zoals Emily M. Bender en Timnit Gebru distantiëren zich van de brief vanwege feitelijke onjuistheden en de zorg dat het scifi-narratief beleidsmakers op het verkeerde been zet.

Powerfull digital “minds”

De brief spreekt over “powerful digital minds that no one can control” en “nonhuman minds that might eventually outsmart, obsolete and replace us”. Maar AI is geen natuurkracht, het ontwikkelt zich niet exponentieel, en het is geen ‘’digital mind’’.

Dat AI steeds krachtiger wordt heeft niet te maken met een toename aan computerintelligentie, maar met een toename aan toepassingen die op de markt komen, en het enthousiasme waarmee wij die toepassingen voeden met onze teksten, beelden en kunstwerken. We verwarren meer data en parameters, met meer intelligentie.

Ook het nieuwste GPT-model, heeft meer met woordvoorspelling te maken dan met intelligentie. Het begrijpt en beredeneert niets, en voorspelt slechts het meest waarschijnlijke woord in een zin op basis van kansberekening. Dat GPT-4 hoog scoort op verschillende tests, komt doordat het getraind is op data die aansluit bij de tests. Zelfs de CEO van OpenAI erkent inmiddels dat grotere taalmodellen met meer parameters (GPT-5, GPT-6) niet tot fundamentele AI-doorbraken zullen leiden.

In de brief wordt AI voorgesteld als een natuurkracht die buiten onszelf staat. Maar AI wordt gemaakt, getraind en geïnterpreteerd door mensen. Dat in dat proces dingen gebeuren die wij niet begrijpen, geldt voor heel veel technologieën die wij dagelijks gebruiken. Denk bijvoorbeeld aan de paracetamol, de auto of je telefoon. Wanneer we niet precies begrijpen wat er binnenin die technologieën gebeurt, betekent dat niet dat we te maken hebben met een losgeslagen entiteit die plotseling bewustzijn heeft ontwikkeld en vanuit een eigen ideeënwereld beslissingen neemt. Het betekent wel dat in de interactie tussen technologie, mens en samenleving, complexe dingen gebeuren die we niet altijd tot in detail begrijpen.

De vergelijking tussen AI en menselijke intelligentie schept verkeerde verwachtingen.

Die begripsgaten vinden we lastig. Daarom vullen we ze op met antropomorfisering. Als AI iets onbegrijpelijks doet, dan moet dat wel vanuit een ‘’mind’’ gebeurd zijn die het onbegrijpelijke proces moet verklaren. Steeds meer AI-experts verzetten zich tegen deze misleidende antropomorfisering. Ten eerste omdat de vergelijking tussen AI en menselijke intelligentie verkeerde verwachtingen schept. Mensen leren anders dan computers, en produceren en interpreteren taal op een heel andere manier. Peuters kunnen bijvoorbeeld een woord begrijpen nadat ze het één keer hebben gehoord, omdat ze het kunnen koppelen aan een concept dat ze al kennen. AI-modellen hebben miljoenen woorden of afbeeldingen nodig om hetzelfde te doen, en zijn daardoor extreem energie-inefficiënt.

Ten tweede omdat mensen met termen als ‘mind’ commercieel misleid worden om te denken dat ze te maken hebben met een wezen met gevoel en bewustzijn, waardoor ze meer taken aan programma’s als ChatGPT toevertrouwen en de output serieuzer nemen. Zo pleegde een Belgische man zelfmoord, volgens zijn vrouw omdat hij luisterde naar zijn chatbot, die hij voor een volwaardige gesprekspartner had aangezien. Een ander voorbeeld is CNET; journalisten moesten duizenden artikelen corrigeren die de nieuwswebsite aan ChatGPT had uitbesteed.

Behalve met antropomorfisering, worden begripsgaten ook opgevuld met AI-marketing. Omdat grote deep learning doorbraken uitblijven, creëren AI-bedrijven hun eigen hypes om nog interessant te blijven. Zo kun je er vergif op innemen dat elk jaar dezelfde berichten verschijnen over ‘losgeslagen’ AI-systemen die ‘plotseling’ rare dingen doen. Vorige week was het weer raak met Google’s chatbot Bard. CEO Sundar Pichai beweerde dat de chatbot zichzelf Bengaals had aangeleerd. Al snel toonde ex-Google medewerker Margaret Mitchell aan dat dit niet klopte. Google had in 2022 al een AI-model getraind om te communiceren in het Bengaals. Volgens Mitchell creëren techbedrijven opzettelijk hypes en spektakel rondom hun producten, omdat dit leidt tot meer investeringen.

Reële AI-gevaren

Betekent dit dat AI niet gevaarlijk is en we de huidige ontwikkelingen dan maar moeten omarmen? Integendeel. Er zijn goede redenen om bang te zijn voor AI: de toenemende machtsconcentratie van techbedrijven, het enorme energie- en waterverbruik, de reproductie van maatschappelijke ongelijkheid, schade aan ons informatie-ecosysteem, negatieve feedbackloops, culturele homogenisering en cognitieve inteelt.

Want de teksten die uit programma’s als ChatGPT rollen worden ook weer gerecycled als trainingsinput. Daardoor krijgen we steeds meer teksten aangeboden die met steeds minder gedachten geproduceerd zijn. Niet alleen teksten, maar ook beelden, clips en muzieknummers worden steeds vaker ge(co)creëerd met toegankelijke AI-programma’s als Midjourney, Dall-E en MusicLM. Omdat deze programma’s een remixende, statistische echoput zijn van reeds bestaande content, begint alle content steeds meer op elkaar te lijken.

In plaats van AI-singularity, kunnen we ons dus zorgen maken over een singularity of sameness. Niet alleen ‘sameness’ qua content, maar ook in de manier waarop we naar de wereld kijken, waarschuwt James Bridle in zijn nieuwste boek:

Het probleem met AI is dat we de daadwerkelijke gevaren saai vinden. Het scifi-narratief is aantrekkelijker omdat het spectaculair is en bovendien alle verantwoordelijkheid buiten de mens plaatst. Want als AI een natuurkracht is, dan kunnen wij daar als eenvoudige stervelingen niet zoveel aan doen. Dat AI een manifestatie is van wie wij zelf zijn, en een product is van onze eigen data-input en nihilistische verlangens om het menszijn uit te besteden aan machines, vinden we lastig. Liever verklaren we ons afhankelijk van heilige AI-overlords, die hun systemen al dan niet pauzeren.

Een andere belangrijke aantrekkingskracht van het scifi-narratief is dat het mensen hoop biedt op ‘’superintelligence for good’’. Als we geloven dat AI een superintelligentie is met allesverwoestende vermogens, dan lijkt de uitdaging opeens simpel: we moeten die vermogens inzetten om wereldproblemen op te lossen. Dat is de verleidelijke worst die de hoge priesters uit Silicon Valley ons voorhouden: AI helpt kanker genezen en geeft ons meer tijd voor belangrijke taken.

De realiteit is complexer. Zo is er geen overtuigend bewijs dat AI beter borstkanker kan herkennen dan radiologen, en blijkt dat AI in biomedische labs niet perse leidt tot effectieve tijdsbesparingen. De tijd die wetenschappers kwijt zijn aan het AI-leesbaar maken van informatie, oplossen van technische problemen en controleren van AI-systemen, blijkt ten koste te gaan van belangrijke activiteiten zoals het ontwikkelen van nieuwe hypothesen. In plaats van AI voor ons te laten werken, gebeurt in de praktijk vaak het omgekeerde: mensen moeten harder werken om hun taken en dagelijkse bezigheden machine-leesbaar te maken, terwijl dat niet tot meer productiviteit leidt.

Overbodige mens

We moeten dan ook kritisch kijken naar de belangen van waaruit organisaties en bedrijven AI-oplossingen en AI-gevaren promoten. Zo komt de AI-pauzebrief uit de koker van het Future of Life Institute. Deze organisatie hangt de controversiële ideologie van longtermism aan. Longtermists streven naar een toekomst met radicaal verbeterde posthumans, een commercieel gekoloniseerde ruimte, en biljoenen digitale mensen wier toekomstige digitale levens belangrijker worden geacht dan het huidige leed van echte mensen.

De digitale fantasieën van een clubje superrijken die het contact met de werkelijkheid in hun billionaire-boys-bunker verloren zijn, mogen niet leidend zijn in onze AI-aanpak. De ghostworkers die voor een paar cent onze AI-systemen draaiende houden, de werknemers die traumaklachten ontwikkelen omdat ze de output van generatieve AI-systemen filteren, de vrouwen die speciale kleding moeten dragen om niet gevolgd te worden, en de kunstenaars wier werk wordt gestolen om AI-beeldgeneratoren te trainen, hebben geen boodschap aan een fictieve AI intelligentie-explosie waarmee we onze fictieve levens in een fictieve toekomst fictief kunnen uploaden naar een energieslurpende cloud.

Als ik om mij heen kijk zie ik geen AI die de mens overbodig maakt, maar een mensheid die de mens overbodig maakt. Het type intelligentie dat we in AI proberen te gieten is juist wat ons in de problemen brengt: statistische optimalisering voor economische doeleinden, efficiency, extrapolatie van koloniale patronen uit het verleden, kennis zonder begrip, en een veronachtzaming van de fysieke wereld.

Als we ergens aan ten onder gaan, dan is dat niet aan de intelligentie van computers, maar aan onze eigen nihilistische verlangens. Of in de woorden van computerwetenschapper Jaron Lanier: aan onze eigen waanzin.

Deze blog werd eerder gepubliceerd op Setup.nl

AI-bullshit bingo

Voor het project “AI-bullshit bingo” is Setup op zoek naar de beste AI-bullshit verhalen. Heb jij ergens iets gelezen, gezien of gehoord waar de sensationele scifi-onzin vanaf druipt? Laat het weten via info@setup.nl of mention @SETUPutrecht op Twitter of LinkedIn.

  • Nico Boom Waterschap Scheldestromen | 4 mei 2023, 13:50

    Gelukkig wordt er nog steeds nagedacht. Dank je wel, Siri. Een goed betoog. Of wat er nu gebeurt daadwerkelijk geclassificeerd mag worden als AI, is nog maar de vraag. Het is meer een volgende fase in het WEB 3.0 , het semantische World Wide Web waar de uitwisseling van gegevens efficiënter verloopt. “deep fake” -het manipuleren van bestaand videomateriaal- is een logisch vervolg op het morphen van foto’s. Nog steeds geen AI.
    Daarom gelukkig dat er nog nagedacht wordt, want de wereld wijde adoptie van de huidige ChatGpt maakt de mensheid eerder dommer dan dat we dichter bij AI komen.
    En dan is het nog maar de vraag of de gevestigde Big Tech orde daadwerkelijk met vernieuwing op het gebied van AI komt. Want dat vraagt om anders denken!

  • Hans Timmerman | 4 mei 2023, 15:14

    Wat een heerlijke nuchtere reactie op al die AI ophef. Dacht al dat ik de enige was die niet opgewonden werd van ChatGPT… Natuurlijk is het heel mooi wat deze applicatie intussen kan. Ik experimenteer er ook mee, maar dat kon in mindere mate twee jaar geleden met vergelijkbare applicaties ook al. En zal over twee jaar in weer meerdere mate kunnen, de gewone evolutie van techniek, algoritmes en dataverzamelingen.

    Maar ‘intelligentie van een levend wezen’ zal altijd anders zijn dan ‘intelligentie van dode materie’. Ik zou AI ook liever Augmented Intelligence noemen, net zoals een robot augmented spierkracht is en een verrekijker of microscoop augmented vision. Een technisch verlengstuk dat we als mens kunnen gebruiken om onze beperkte zintuigen, spieren en hersenen krachtiger te maken. Chat GPT is niets meer, maar ook niets minder dan dat. Mooi dat het kan, maar daar houdt het ook bij op . . .

  • Nico Beenker | 9 mei 2023, 16:37

    Hmmm, ik ben helemaal niet zo te spreken over dit verhaal. Dat AI door de branche gehypet wordt moge duidelijk zijn. Een kritische benadering van een brief die een tamelijk onrealistische oproep doet, en die door veel evident belanghebbenden uit de IT-business is ondertekend, lijkt me zeer op z’n plaats. Maar ik vind dat mevrouw Beerends in haar kritiek wat doorschiet. Ze maakt zich met kwalificaties als PR-stunt en Bullshit ook schuldig aan hetgeen ze de AI-industrie van beticht: stemmingmakerij. Het gevaar van AI ligt zoals mevrouw Beerends terecht aangeeft niet in het voorbijstreven van de menselijke intelligentie. De reële gevaren waarover ze schijft zijn ook belangrijk, maar … de belangrijkste ontbreekt in haar betoog.
    Dat zie ik zo. Het grootste gevaar dat Super AI met zich meebrengt is de verdere groei van de maatschappelijke problemen die we al kennen van social media, en die we al twintig jaar maar niet kunnen oplossen of beheersen. Zoals informatie overbelasting, schermverslaving, de vermaledijde influencer cultuur, polarisatie, fake news en alternative facts, en uiteindelijk – zie de inzet van digitale knokploegen in de USA, Polen, Hongarije en Israël, het ondergraven van onze democratieën. Over China, Rusland en Saoedi Arabië, nog maar te zwijgen. Het gevaar dat Super-AI met razend snel evaluerende combinatie-modellen aan dit probleem toevoegt is dat het via aps en filters (Tik Tok) gebruikt zal worden om het gedrag van mensen nog verder te beïnvloeden en zodoende de AI verder te trainen. Dit leidt, door het grote geld en de enorme investeringen die dat aantrekt, tot al maar groeiende effectiviteit om mensen ergens van (meestal iets naars) te overtuigen. En dat vermogen wordt te koop aangeboden aan de hoogste bieder, praktisch volledig ongereguleerd.
    Met de exponentiële turbokracht van deze AI Modellen ontwikkelt Fake News, zich tot Fake-Everything. Het verschil tussen echt en fake vervaagt dan in beeld, spraak, data, etc. De huidige cyber veiligheid is niet opgewassen tegen met AI-versterkte cyber wapens die door geautomatiseerde exploitatie van computer code tot een informatieveiligheidscrisis en dus (!) tot draconische tegenmaatregelen moeten leiden.
    Het grootste reële gevaar waar we met AI op af blijken te koersen is niet ”de machtsconcentratie van techbedrijven of het enorme energie- en waterverbruik, of de reproductie van maatschappelijke ongelijkheid, of de schade aan ons informatie-ecosysteem, etc.” maar een volledige ineenstorting van intermenselijk vertrouwen als gevolg van fake everything. En dat raakt alles en iedereen en ontwricht onze samenleving. Daarom moeten we tegen de ongebreidelde, en ongereguleerde commerciële doorontwikkeling van Super-AI zijn. Een oproep tot pauze en bezinning is daarom zo’n slecht idee nog niet, ook al komt hij uit een wat diffuse hoek.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren