Black box
De Amerikaanse stad Tempe had onlangs tegen wil en dank een wereldprimeur: het eerste dodelijke slachtoffer van een zelfrijdende auto, een testtaxi van Uber. De ijzeren wetten van de medialogica zorgden voor stevige discussies over het incident. Er valt dan ook veel over te zeggen.
Bijvoorbeeld dat computersystemen statistisch gezien betere chauffeurs zijn dan mensen, of dat op z’n minst kunnen worden in de nabije toekomst. Dat rationele argument is echter nauwelijks relevant, want emotie speelt begrijpelijkerwijs de hoofdrol in de discussie. Het ongeval speelt vooral in op menselijke angsten om de controle te verliezen als gevolg van technologische vooruitgang in het algemeen en de oprukkende kunstmatige intelligentie in het bijzonder. De staat Arizona besloot in elk geval om de vergunning van Uber voor deze tests op te schorten. En het bedrijf zelf zette in andere staten ook het testprogramma stil.
Angst speelt dus de hoofdrol, en dat valt nauwelijks los te zien van het veel gehoorde kritiekpunt dat de zelfrijdende auto onder de motorkap een black box is. We weten niet hoe de algoritmes afwegingen maken over remmen of bijsturen. Dat lijkt op het eerste gezicht een valide punt maar is het juist niet.
Ook het menselijk brein is immers bij uitstek een black box. Een chauffeur kan niet uitleggen hoe en waarom hij in lastige verkeerssituaties in een split second afwegingen maakt. Een computersysteem kan dat juist wel, ook al is dat niet vanzelfsprekend zo geregeld. We kunnen bijvoorbeeld precies uitleggen hoe algoritmes het verschil bepalen tussen een ronddwarrelende plastic zak en een fietsend kind. En we kunnen ‘aan de knoppen draaien’ om dat nauwkeuriger of met meer voorzichtigheid te doen, iets wat bij een menselijke chauffeur ook onmogelijk is. Op individueel niveau kunnen we niet ingrijpen, maar op statistisch niveau wel. De werkelijkheid is dan ook dat we met een zelfsturende auto juist grip kunnen krijgen op iets waar we eerder nooit grip op hadden.
Dat vergt wel een maatschappelijke discussie over de eisen die we aan algoritmes stellen. Politieonderzoek naar het ongeval in Tempe concludeerde dat een menselijke bestuurder waarschijnlijk in die situatie ook een dodelijk ongeval had veroorzaakt, maar ander onderzoek gaf ook aan dat het algoritme de persoon wel degelijk heeft waargenomen. Het algoritme had dus kunnen reageren, maar deed dat niet. De vraag komt dan ook op: is het goed genoeg als zelfrijdende auto’s aantoonbaar minder (dodelijke) ongelukken veroorzaken dan door mensen bestuurde auto’s? Of willen we computers andere normen opleggen? Daar moet de discussie over gaan. Naast tal van andere zaken die niet passen in deze ruim 400 woorden.
Sander Klous is hoogleraar Big Data Ecosystems, UvA en partner bij KPMG
Deze column is te vinden in iBestuur magazine 27. Download hier