Data en ai
Blog

Zwakste schakel

robothanden in handboeien

Een indrukwekkende roller coaster, dat is AI op dit moment zeker. In ruim een jaar groeiden we collectief van verbazing, enthousiasme en fear of missing out, toe naar het besef dat we AI vooral ook verantwoord moeten gebruiken.

Experts (vaak zelfbenoemd) – of ‘influencers’ – komen met adviezen (of halen deze uit ChatGPT…). Hoewel de opsommingen vaak best een aardig startpunt zijn, is de meerwaarde beperkt. Je kunt maar beter op zoek gaan naar experts die zelf met de voeten in de modder hebben gestaan. Je moet het immers eerst zelf fout gedaan hebben voordat je het ergens anders beter kan.

Beheersen van de risico’s

Een mooi voorbeeld van het verschil tussen theorie en praktijk is de discussie over het beheersen van de risico’s rondom AI. Doen we dat gebaseerd op regels, met een gedetailleerde beschrijving van wat wel en niet mag? Of gebaseerd op principes, door mensen hun eigen verantwoordelijkheid te geven, ze bewust te maken van kansen en risico’s en ze op te leiden. Beide benaderingen hebben hun grenzen, zo laat de praktijk rondom een aantal nieuwe Microsoft producten zien. Je kunt bijvoorbeeld scherp definiëren welke data je wel en niet kunt ‘voeden’ aan AI tools, of met principes zorgen dat medewerkers daar zelf goed over nadenken. Echter, wat gebeurt er zodra een gebruiker een nieuwe versie van Bing Chat krijgt voorgeschoteld met een paar keurige vinkjes waarmee Microsoft (waarschijnlijk terecht) claimt dat deze toepassing ‘geschikt is voor het veilig inbrengen van bedrijfs- en privacy gevoelige data’? De groene vinkjes lijken aan te geven dat aan de regels is voldaan. Ook de op principes gebaseerde aanpak gaat nat, want een weldenkende medewerker zal redeneren dat een partij als Microsoft zo’n claim niet zomaar maakt.

Gaandeweg beseften we dat alle toegang blokkeren ook niet de oplossing was en gingen we investeren in bewustzijn en kennis van de gebruikers.

Ander voorbeeld: Microsoft Copilot heeft alleen rechten om data te gebruiken waar jij als gebruiker in je eigen omgeving toegang toe hebt. Dat klinkt mooi, maar (de toegangsrechten tot) die data zijn in veel gevallen ontstaan toen er nog geen sprake was van enthousiast grazende AI tools. Ook hier is goed risicomanagement dus lastig: volgens de regels heb je immers toegang tot die data, en volgens de principes zou de data waar je toegang toe hebt niet onverantwoord moeten zijn. Daar sta je dan met je principes of je regels. Geen opsomming op sociale media die daar tegen helpt…

Een vergelijking met de historie van cybersecurity dringt zich op. Dat begon vooral met technische oplossingen om indringers te weren. Gaandeweg beseften we dat alle toegang blokkeren ook niet de oplossing was en gingen we investeren in bewustzijn en kennis van de gebruikers. Pas daarna, toen voldoende praktijkervaring was opgedaan, werd het motto dat 100 procent zekerheid niet haalbaar is. De zogenaamde ‘cost of control’ is sindsdien het paradigma en dus zetten we naast preventie ook in op een goede respons om de gevolgen van incidenten te beperken. Misschien is die analogie wel een-op-een te kopiëren naar het temmen van AI?

Deze blog is ook gepubliceerd als column in iBestuur Magazine #50 van april 2024

  • Vincent Hoek | 3 april 2024, 21:04

    Herhaling van zetten. Niet heel anders dan wat er bij de opkomst van de boekdrukkunst gebeurde.De bestaande orde reageerde op het verlies van het monopolie op het Grote Verhaal.
    De boekdrukkunst maakte kennis echter ook toegankelijker, stimuleerde het onderwijs en verspreidde ideeën, wat leidde tot de Renaissance en de Wetenschappelijke Revolutie. Vandaag democratiseert AI de toegang tot geavanceerde data-analyse en besluitvormingsprocessen, wat onze banen en industrieën zal transformeren en nieuwe manieren van werken mogelijk zal te maken. Met zowel de risico’s van AI, op onbedoelde vooroordelen, privacy schending en onzekerheid over verantwoordelijkheid als met de enorme voordelen. Willen we een balans krijgen tussen regelgeving en ethische principes, dan moeten we de risico’s minimaliseren door optimaal granulair te gaan werken. Strikte regels kunnen innovatie belemmeren of onbedoelde gevolgen hebben. Een puur principiële benadering kan weer leiden tot subjectieve interpretaties en inconsistenties. De zwakste schakel zijn wij zelf! Er zijn tientallen soorten AI de evolutie verloopt exponentieel. Doe de cursussen (de basis is gratis op platforms, zoals Coursera, edX en Udemy), lees de boeken, lees de artikelen, de blogs, luister naar de podcasts, bekijk de webinars, experimenteer met open-source AI-software, zoals TensorFlow of scikit-learn, neem deel aan online communities, sommige universiteiten bieden gratis lezingen of fragmenten van hun cursussen online aan … Net als de uitvindingen van Gutenberg en Koster gaat deze geest niet meer in de fles.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren