Blog

AI, corona en bescheidenheid

Corona maakt helder waarom we bescheidener moeten zijn over de maakbaarheidsbelofte van nieuwe technologieën.

Kunstmatige intelligentie kan een waardevol hulpmiddel zijn, maar biedt geen oplossing voor de tekortkomingen van de sociaal-economische systemen waarin wij leven. Het coronavirus maakt zichtbaar waarom we bescheidener moeten zijn over de maakbaarheidsbelofte van opkomende technologieën.

De verwachtingen van artificiële intelligentie (AI) zijn de afgelopen jaren zo hoog gestegen, dat het niet lang kon duren voordat de bubbel zou barsten. Experts spreken over een AI-winter waarin technologische grenzen aan het licht komen, en journalisten hun futuristische AI-scenario’s zullen temperen. Daardoor kunnen we realistischer gaan kijken naar wat AI daadwerkelijk voor ons betekent.

De wet van Moore dat de snelheid van computerchips blijft verdubbelen, is achterhaald en er zijn al jaren geen grote doorbraken binnen de kunstmatige intelligentie. Volgens experts komt dat omdat onze huidige methoden – deep learning algoritmen en deep neural networks (DNN’s) – een aantal fundamentele beperkingen hebben. Zo zijn DNN’s in vergelijking met menselijke intelligentie kwetsbaar, inefficiënt en kortzichtig.

DNN’s zijn kwetsbaar omdat ze een hoge ‘spoofability’ hebben: voeg een beetje ruis toe aan een afbeelding en de systemen zien bananen aan voor broodroosters. Dat komt doordat ze een aantal fundamentele eigenschappen missen om in de echte wereld goed te kunnen navigeren. Daarnaast zijn DNN’s inefficiënt qua energieverbruik en leervermogen. Als ouders hun kind leren wat een hond is, hoeven ze niet tienduizend keer te zeggen ‘dit is een hond’. Kinderen kunnen al op jonge leeftijd aan de hand van één ervaring betekenissen generaliseren naar andere contexten, terwijl dat voor DNN’s onmogelijk blijft. Dat komt omdat de problemen die wij oplossen, niet netjes zijn afgebakend. Deep learning – de methode waarmee computers leren op basis van grote hoeveelheden data – werkt alleen goed in stabiele omgevingen met onveranderlijke regels, zoals het bordspel Go. Maar het leven is het tegenovergestelde van een spelletje Go: onze alledaagse wereld is chaotisch, tegenstrijdig en complex.

Het is dan ook logisch dat de AI-systemen die artsen, advocaten, journalisten, onderzoekers en taxichauffeurs overbodig zouden maken, nergens te bekennen zijn. In plaats daarvan kregen we surveillerende AI-systemen die dicteren hoe wij ons werk moeten doen, maar gelukkig ook AI-systemen waarmee we complementair kunnen gaan samenwerken. Om dat te bereiken moeten we eerst afrekenen met de onrealistische science-fiction verwachtingen van AI. Deze kunnen namelijk leiden tot een maatschappelijke desillusie die zinvolle AI-toepassingen kan belemmeren.

Wapen tegen Covid-19

Google Grieptrends kon epidemiologische gegevens voorspellen op basis van zoektrends, maar miste de piek van het griepseizoen in 2013. Hoewel AI-systemen inmiddels toegang hebben tot meer soorten data, blijft het moeilijk om virussen te voorspellen. In december waarschuwde een AI-systeem in Boston over de uitbraak van een virus dat later bekend zou worden als het coronavirus. Maar deze waarschuwing was niet sneller dan die van de menselijke experts, omdat het systeem de ernst van de pandemie niet kon beoordelen en voorspellen.

Een groot obstakel voor AI is dat het eindeloos veel data nodig heeft en niet alle relevante informatie kan verwerken. Sommige AI-systemen doen voorspellingen op basis van nieuwsbronnen en social media berichten, maar deze zijn onbetrouwbaar omdat ze bol staan met desinformatie. Betrouwbare data over Covid-19 zijn schaars. Er zijn onvoldoende testen en er is nog veel onduidelijk over de symptomen, groepsimmuniteit, hoe het virus onderling wordt overgedragen, hoeveel mensen het hebben, of je het bij je kunt dragen zonder klachten en of mensen de maatregelen naleven. Kortom: Covid-19 en alles wat het verloop daarvan beïnvloed, is het tegenovergestelde van de stabiele omgeving met betrouwbare data die AI nodig zo hard nodig heeft om goed te kunnen presteren.

Ondertussen verschijnen artikelen waarin bedrijven claimen dat hun AI-software Covid-19 kan diagnosticeren aan de hand van CT-scans. Maar volgens Alexander Lundervold, expert op het gebied van machine learning en medische scans, zijn deze claims overtrokken. Er zijn te weinig betrouwbare trainingsdata en de fysieke tekenen van corona zijn pas na de infectie in de scans zichtbaar, waardoor de methode onbruikbaar is voor vroege diagnose. Toch wordt positief uitgekeken naar een neuraal netwerk genaamd COVID-Net, dat recent open access werd vrijgegeven. Onderzoekers hopen daarmee een AI-tool te ontwikkelen die mensen kan testen op Covid-19.

Privacy stresstest

Omdat AI-systemen afhankelijk zijn van kwalitatief hoogwaardige data, gaan steeds meer geluiden op dat we meer gezondheidsdata met bedrijven en overheden moeten delen. Zo is de Autoriteit Persoonsgegevens tijdelijk minder streng op privacy, fantaseren techjournalisten alvast over grafstenen met teksten als ‘Maar ze behield tot het einde haar privacy’, en zijn Amsterdammers begonnen met een app waarmee zij gezondheidsdata kunnen delen met de gemeente.

Maar de belofte dat we pandemieën kunnen bestrijden als we er maar genoeg gezondheidsdata tegenaan smijten, is misleidend. Roel Coutinho, arts, microbioloog en voormalig directeur van het Centrum Infectieziektebestrijding verklaarde in Buitenhof: “Je zou graag willen denken dat je dit volledig kunt voorkomen, maar dit is buitengewoon moeilijk, omdat er elke keer onbekende factoren zijn waarvan we niet hadden gedacht dat ze een rol zouden spelen. Het is complex, het gaat over ecologie, het gedrag van mensen, en onvoorziene factoren. Elke epidemie is anders.”

Dat infectieziekten terug zijn te leiden naar overdrachten van dier op mens, weten we al jaren. Onze omgang met de natuur en het industriële globalisme dragen daaraan bij. Ecologen wijzen erop dat we door houtkap, toegenomen mobiliteit, mijnbouw, veeteelt, bevolkingsgroei en snelle verstedelijking steeds vaker in contact komen met diersoorten die we voorheen nooit tegenkwamen. Daardoor kunnen virussen makkelijker overspringen. Ook zouden onder het smeltende ijs onbekende virussen huizen die door klimaatopwarming loskomen.

Menselijk gedrag, besmettingsverloop en ecologische factoren zijn veranderlijk en hangen op een complexe manier met elkaar samen. Hoeveel data we ook in onze AI-systemen stoppen, de beïnvloedende factoren en eigenschappen van pandemieën kunnen we niet allemaal met AI-modellen tackelen. Ook biedt big data surveillance zonder privacy geen antwoord op dieperliggende ecologische en sociaal-economische problemen. Neem bijvoorbeeld het vinden van een vaccin. AI kan hierbij helpen, maar de ware uitdaging ligt in de logistieke operatie om de middelen op de juiste plekken te krijgen, de inzet van voldoende zorgpersoneel, en de macht van big pharma die recepten onder de pet probeerde te houden.

Wat we van de AI-winter kunnen leren is dat kunstmatige intelligentie waardevolle inzichten kan geven, maar geen oplossing biedt voor de tekortkomingen van de mens en de veelal asociale systemen waarin wij leven. Privacy overboord gooien helpt niet om het virus te temmen. Bovendien is het naïef om te denken dat je de tijdelijke extra surveillance later nog kunt terugschroeven. Zo vrezen onderdrukte minderheden in China en Israël dat datahongerige overheden en bedrijven hun surveillancesystemen na de coronapiek zullen rechtvaardigen uit naam van gezondheid.

Onbescheiden ideologie

Maar coronasurveillance heeft meer met sociaal wantrouwen en data-economische belangen te maken dan met gezondheid. De belangrijkste les die we van deze AI-winter kunnen leren is dan ook dat kunstmatige intelligentie geen neutrale technologie is, maar een ideologie. Een onbescheiden ideologie gebaseerd op dataïsme, surveillance kapitalisme, sociaal wantrouwen en een mechanische opvatting van intelligentie. In plaats van een groot deel van de oplossing te zoeken in AI, moeten we onze peilen richten op het doorgeslagen maakbaarheidsdenken en de manier waarop we onze systemen inrichten.

Zo verklaart de om zijn nuchterheid geprezen microbioloog Bruno Verhasselt dat Covid-19 een ­blijvend virus wordt: “Het is een illusie dat je micro-organismen kunt tegenhouden. Het coronavirus heeft de sprong ­gemaakt van vleermuizen naar mensen, het zal even duren voor we ons aan elkaar aanpassen. Het is belangrijk om verspreiding te ­vertragen, zodat de ziekenhuis capaciteit niet wordt overbelast en we zoveel mogelijk mensen kunnen redden. Maar je zal immuniteit moeten opbouwen, daarbij zullen mensen sterven. De ­impact op de mens zal vooral groot zijn door de niet-medische gevolgen.”

We leven in een wereld van veranderlijke factoren en complexe systemen. Deze werken niet volgens wetmatigheden, maar volgens een instabiele dynamiek op elkaar in. Dat vraagt niet om alleen een AI-aanpak gebaseerd op categorieën en labels, maar ook om een interdisciplinaire HI (Human Intelligence) aanpak gebaseerd op ervaringen uit de echte wereld, cognitieve flexibiliteit, gezond verstand en contextuele kennis.

In het post-corona tijdperk zijn we hopelijk een lesje bescheidenheid rijker. Hoeveel rekenkracht en gezondheidsdata we er ook tegenaan smijten, ingrijpende levenstragiek, risico’s en onvoorspelbare gebeurtenissen blijven altijd onderdeel van het leven. Dat is zowel een vloek als een zegen. Een gesurveilleerd bestaan uit naam van totale risico-uitbanning is namelijk net zo bedrieglijk onschuldig als het coronavirus zelf.

Siri Beerends is cultuursocioloog en schrijver bij SETUP. Daarnaast doet ze promotie-onderzoek naar authenticiteit en de vraag op welke manier mensen en machines onder invloed van kunstmatige intelligentie meer op elkaar gaan lijken.

Een longread over dit onderwerp is te lezen op de website van SETUP

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren