Stille ramp
Er is binnen de overheid heel veel aandacht voor algoritmes, en dat gaat hand in hand met de hype rondom generatieve AI. Er wordt mee geëxperimenteerd: ‘Hoe zou het zijn als we hier een algoritme voor inzetten?’ Twinkelende ogen. Dat geëxperimenteer kun je nu niet meer doen zonder ‘iets’ aan ethiek te doen (of daarover te jabberwockyën), dat besef lijkt wel doorgedrongen. Dus het moet wel ‘verantwoord’. De IAMA staat goed op de kaart, wat op zich een goede start is voor het bredere bewustzijn van het mogelijke effect bij de inzet van algoritmes en aandacht daarvoor in de ontwikkeling.
Laatst werd ik op een symposium aangekondigd als AI-ethicus. Dat heb ik plenair meteen rechtgezet. Die definitie is mij veel te beperkt. Maar angstaanjagend vind ik hem ook wel.
AI-ethiek is voor mij hooguit onderdeel van data-ethiek. Ik hanteer nog altijd de definitie van data-ethiek die Floridi in 2016 neerlegde. Hij maakte heel zorgvuldig onderscheid tussen de ethiek van data (-verzameling, -gebruik, -deling en -verwerking), de ethiek van algoritmes en modellen (toepassing) en de professionele gebruiken die bij de omgang met data horen. De reflectie op data is het uitgangspunt, daarna volgt de toepassing.
De focus op de ethiek van algoritmes en modellen gaat vaak gepaard met iets dat ik het ‘technisch perspectief’ op data-ethiek ben gaan noemen. In het ontwerpproces is men zich dan bewust van het gevaar dat er ongewenste vraagstukken in het ontwerp sluipen, denk aan biases in het algoritme of de schending van mensenrechten. Ethiek betekent dan dus het elimineren van fouten of het voorkomen van ellende, veelal via een technische insteek (tool of assessment). Eigenlijk concentreert die ethiek zich rondom het ‘No Harm-principle’. Niet mijn insteek; ethiek moet niet worden ingezet om iets te voorkomen, maar juist om iets te bewerkstelligen. Het gaat er om ergens naartoe te bewegen, in plaats van ergens vanaf.
Mijn zorg is dat er een stille ramp aan het ontstaan is door deze focus. De fundamenten, de data, zijn vaak niet goed (kwaliteit) of niet op orde (management en architectuur). ‘Data is dood’, hoor ik Wouter van Aerle geregeld zeggen (en zijn post daarover op LinkedIn ging viral). Er is te weinig aandacht voor data als fundament en de reflectie daarop. Dus de focus op ‘fantastische oplossingen’ op ‘verantwoorde wijze’, is vragen om problemen. Kwestie van tijd. AI gaat dit probleem niet oplossen. AI-ethiek ook niet.
Deze blog werd ook gepubliceerd als column in iBestuur Magazine #51 van juli 2024
Ik ben met u eens dat er een stille ramp ontstaat, maar om meer redenen dan u noemt. Regelmatig zien we dat, wanneer mensen “hun” data gaan gebruiken voor AI of het bouwen van algoritmes en modellen, een soort blindheid optreed, een ultiem vertrouwen in de eigen data. Wat vaak vergeten lijkt te worden is dat een kille interpretatie van AI en modellen, en hun invloeden (hun onbewuste ervaring, onbewuste kokervisie en hun onbewuste vooroordelen) OP die data tot andere oplossingen gaan leiden dan de fantastische oplossingen die men vaak voor ogen heeft.
Onbetrouwbare (tweedehands) data, dubbele data, verouderde of gewoon foute data komt vaker voor dan men denkt. De focus op privacy en ethiek zorgt voor extra problemen omdat, door onkunde over wat wél en niet mag, te vaak de “veilige keuze” gemaakt wordt.
De strategische keuze van de overheid om zo veel mogelijk data bij de bron op te gaan halen is een begin, maar de discussies over privacy, eigenaarschap, geldigheidsduur en wat er gedeeld, verrijkt en gecombineerd mag worden gaan nog heel lang duren vrees ik.