Overslaan en naar de inhoud gaan

De noodzaak van vertrouwen in AI

AI
Beeld: Shutterstock

Wereldwijd onderzoek van IDC en SAS laat zien dat er een discrepantie bestaat tussen het vertrouwen van organisaties in AI en de daadwerkelijke betrouwbaarheid van AI-systemen. Dit zogenaamde ‘AI-vertrouwensdilemma’ vormt volgens de onderzoekers een cruciale belemmering voor een effectieve adoptie van AI.

Uit het rapport Data and AI impact: The Trust Imperative van IDC en SAS blijkt dat 78% van de organisaties AI volledig vertrouwt, terwijl slechts 40% daadwerkelijk investeert in governance, ethiek en uitlegbaarheid om dat vertrouwen te rechtvaardigen. Bij overheidsorganisaties ligt dit percentage nog lager: slechts 6% heeft governance en vertrouwen daadwerkelijk op orde. Organisaties die wel prioriteit geven aan betrouwbare AI, hebben 60% meer kans om de ROI van hun AI-projecten te verdubbelen. Deze kloof tussen vertrouwen en daadwerkelijke betrouwbaarheid betekent dat veel potentieel van AI onbenut blijft en investeringen minder renderen.

Tegelijkertijd groeit het gebruik van AI, en met name van generatieve AI (GenAI), snel. GenAI heeft traditionele AI inmiddels ingehaald in zowel zichtbaarheid als gebruik (81% versus 66%). Overheidsorganisaties adopteren GenAI sneller dan andere sectoren, maar blijven achter op het gebied van AI-volwassenheid en data-infrastructuur.

“Gek genoeg wordt generatieve AI tot drie keer toe meer vertrouwd dan traditionele AI, zoals machine learning,” zegt Rein Mertens, hoofd van Customer Advisory bij SAS Nederland. Dat is opmerkelijk, want traditionele AI is vaak juist beter uitlegbaar en transparanter. “Dat komt vooral doordat generatieve AI conversational is: je praat ermee en krijgt een antwoord. Dat kan de grootst mogelijke onzin zijn, maar het komt vaak plausibel over. Het gebrek aan transparantie over hoe het antwoord is gegenereerd en welke data is gebruikt om het model te trainen, vormt een risico. Dat risico is veel kleiner bij machine learning algoritmes, die over het algemeen veel transparanter zijn. En toch vertrouwen we deze algoritmen veel minder.”

AI-vertrouwensdilemma hardnekkig probleem

Volgens IDC is het AI-vertrouwensdilemma een hardnekkig wereldwijd probleem dat bijna de helft van alle organisaties wereldwijd (46%) treft. Ook in Europa, waar de regelgeving strenger is, kampt een vergelijkbaar percentage organisaties met dit dilemma. De oplossing ligt volgens het rapport in aanhoudende investeringen in governance-kaders, het opleiden van deskundig personeel en een robuuste infrastructuur.

Vertrouwen opbouwen: beleid en vaardigheden

Volgens Mertens begint vertrouwen in AI met goed beleid voor verantwoord gebruik, bijvoorbeeld een (generatieve) AI-policy. “Daarin zet een organisatie uiteen om welke technologie het gaat, waarvoor deze mag worden ingezet en welke grenzen daarbij binnen de organisatie gelden.”

Daarnaast moet iemand in de organisatie de verantwoordelijkheid nemen voor AI-governance en AI-geletterdheid. Dit is in veel organisaties, ook binnen overheden, nog niet overal goed belegd.

Het vormgeven van dit beleid en het toezicht daarop kan worden belegd bij een AI Compliance Officer, met gedeelde verantwoordelijkheid voor de uitvoering van AI-governance. Tegelijkertijd moeten organisaties voldoen aan wettelijke verplichtingen rond beoordeling, transparantie en verslaglegging. Belangrijke vragen daarbij zijn: welke data wordt gebruikt, bevat die bias, en hoe worden algoritmen continu gemonitord? Hiervoor bestaan hulpmiddelen, maar in veel organisaties wordt hier nog onvoldoende over nagedacht.”

Ook de inzet van de juiste tools is essentieel. “Als je die niet aanbiedt, gaan mensen ongecontroleerde AI gebruiken. Dan ontstaat er een speelveld van shadow AI waarbij allerlei bedrijfskritische documenten in ChatGPT worden geüpload. Organisaties moeten daarom hun AI-volwassenheid op meerdere dimensies beoordelen en actief sturen op verbetering: het opstellen van beleid, het vastleggen van verantwoordelijkheden, het definiëren van gebruikskaders, het implementeren van een data-governanceframework en het trainen van medewerkers in AI-vaardigheden,” aldus Mertens.

Obstakels in de publieke sector

Volgens Nicoline Mol, binnen SAS Benelux verantwoordelijk voor de sectoren overheid en gezondheidszorg, liggen de grootste obstakels in de publieke sector bij een gebrek aan data governance, niet gecentraliseerde data en onvoldoende vaardigheden.

“Een grote uitdaging is dat overheidsinstellingen te weinig data kunnen of mogen delen, mede door de AVG-wetgeving. Daarnaast verschilt het kennisniveau over AI sterk, waardoor veel mensen terughouden zijn in het nemen van beslissingen. Binnen ministeries wordt veel gediscussieerd over hoe kennis op verschillende niveaus effectief kan worden gedeeld. Hoewel er op bepaalde afdelingen volop wordt geëxperimenteerd, komen veel initiatieven niet voorbij de pilotfase, en dat is jammer,” zegt Mol.

“Een andere reden voor de trage adoptie van AI binnen de overheid is dat eerdere fouten met algoritmen het vertrouwen van burgers hebben geschaad” zegt Mol. “Daardoor zijn organisaties voorzichtiger geworden in het toepassen van AI, met als gevolg dat productiviteitswinsten en andere voordelen beperkt blijven,” zegt Mol.

Duurzaam AI-bedrijfsmodel

Mertens benadrukt dat vertrouwen in AI vanuit verschillende invalshoeken komt. “Het begint met het gebruik van de technologie binnen duidelijke gebruikskaders. Technisch kan het, juridisch mag het, maar willen we dit ook als organisatie? Dat is de ethische vraag. Bij elk project moet je afwegen of het probleem geschikt is om met data op te lossen, wat de privacy-impact is, hoe datalekken te minimaliseren, en hoe discriminatie en menselijke controle worden geborgd. Dit zijn vragen die horen bij een volwassen omgang met AI.”

“Organisaties kunnen AI ook zonder deze kaders gebruiken en voor kortetermijnwinst gaan, maar dat is geen duurzaam model,” waarschuwt Mertens. Hij illustreert dit aan de hand van een voorbeeld van een app-bouwer die GenZ-data verzamelde voor commerciële doeleinden, maar niet kon of wilde uitleggen hoe dit in de privacyverklaring was opgenomen.

Vertrouwen in AI vraagt governance

Het rapport benadrukt dat een goede AI-governancestructuur cruciaal is. De functie moet goed worden ingericht, algoritmes moeten regelmatig worden getoetst en alle handelingen moeten volledig herleidbaar zijn.

Mertens sluit af: “Het vertrouwensdilemma illustreert het verschil tussen perceptie en praktijk: het vertrouwen in de belofte van AI versus het vermogen van organisaties om de betrouwbaarheid ervan te waarborgen. Het oplossen van dit dilemma is geen optie, maar een voorwaarde voor duurzame impact. Vertrouwen is essentieel.”

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in