Data en ai
Artikel

AI als betrouwbaar instrument in overheidsorganisaties

Bij SAS merken we dat onze klanten enthousiast zijn over het potentieel van AI, maar tegelijkertijd terughoudend zijn in het gebruik ervan. Er worden terecht vragen gesteld over het verantwoord en ethisch gebruik van AI. Wij ontwikkelden een Trustworthy AI Life Cycle workflow, die de aanbevelingen van het Amerikaanse National Institute of Standards and Technology (NIST) makkelijker toepasbaar maakt voor organisaties.

Door de opkomst van Generatieve AI is de belangstelling voor en de inzet van AI exponentieel gegroeid. Zo stond AI centraal tijdens het Gartner Data & Analytics Summit afgelopen mei in Londen. Tijdens het summit werden ook onderwerpen aangehaald als betrouwbaarheid (van modellen en data), ethiek, bedrijfsrisico’s, AI model-governance en de impact op de bedrijfsvoering. Dit is niet verrassend gezien de turbulentie en complexiteit van het AI-landschap.

In een betrouwbaar AI-landschap zijn de volgende gebieden van belang:

  • Overview: AI governance, strategie en inzet.
  • Operatie: standaard operationele procedures, ondersteunende infrastructuur.
  • Compliance: performance en risicomanagement.
  • Cultuur: ethische systemen, normen en toepassingen.

Vertaald naar de technologie raakt dit aan bijvoorbeeld datamanagement, risico en detectie van bias, mitigatie van risico’s, privacy en security.

Betrouwbare en verantwoorde inzet

Overheidsorganisaties staan onder toenemende druk als het gaat om het verantwoord en ethisch gebruik van AI-modellen. Aan de ene kant vanwege vervelende fouten uit het verleden, waarbij onbetrouwbare data, niet-transparante modellen en willekeur in uitleg van de resultaten het vertrouwen in de overheid aanzienlijk hebben aangetast. Aan de andere kant door nieuwe regels, voorschriften en wetgeving. Zo heeft het Europees Parlement in maart ingestemd met de Artificial Intelligence Act, die binnen twee jaar volledig operationeel moet zijn. Deze wet reguleert de ontwikkeling en het gebruik van AI, met als doel de burger te beschermen tegen de risico’s van het gebruik van AI-systemen. Dit omvat het opstellen van richtlijnen voor de transparantie van modellen en gebruikte data. Bovendien stimuleert de wet innovatie en het gebruik van AI.

Het is belangrijk om, liefst geautomatiseerd, inzicht te krijgen in model- indicatoren zoals nauwkeurigheid, eerlijkheid en model drift.

AI en innovatie

Het stimuleren van innovatie is belangrijk, maar bij regulering en innovatie moet altijd de balans worden gezocht tussen verantwoord gebruik en vooruitgang. De invoering van de AI Act weerspiegelt niet alleen de voortdurende evolutie van technologie, maar ook de groeiende bewustwording van de noodzaak om menselijke waarden en ethiek te integreren in onze digitale ontwikkeling.

Het is daarom belangrijk om, liefst geautomatiseerd, inzicht te krijgen in model indicatoren zoals nauwkeurigheid, eerlijkheid en model drift, dat aangeeft hoe de prestaties van het model afnemen naarmate de omstandigheden veranderen. De indicatoren moeten details bevatten over de governance, zoals wanneer het model voor het laatst is gewijzigd, wie eraan heeft bijgedragen en wie verantwoordelijk is voor het model. Dit helpt organisaties om direct te reageren op afwijkende modelprestaties. Het beoogde gebruik blijft in beeld en toepassingen die buiten de scope vallen, of eventuele beperkingen, worden vroegtijdig geïdentificeerd. Deze elementen zijn cruciaal voor het realiseren van transparantie en het uitvoeren van model audits, wat hoogstwaarschijnlijk ook een vereiste wordt voor gereguleerde bedrijfsactiviteiten.

Trustworthy AI Life Cycle workflow

In 2023 heeft het Amerikaanse National Institute of Standards and Technology (NIST) een AI Risk Management Framework geïntroduceerd. Dit is een waardevol hulpmiddel geworden voor organisaties om betrouwbare en verantwoorde AI te ontwikkelen en te beheren zolang er nog geen officiële regelgeving bestaat.

SAS heeft een Trustworthy AI Life Cycle workflow ontwikkeld, die de aanbevelingen van het NIST makkelijker toepasbaar maakt voor organisaties door:

  • individuele rollen en verwachtingen te definiëren.
  • benodigde documentatie te verzamelen.
  • factoren te benoemen waar rekening mee moet worden gehouden.
  • automatisering in te zetten om adoptie te vergemakkelijken.

Met de workflow kunnen organisaties hun afwegingen over de impact van AI-systemen op mensen vastleggen, en garanderen dat het model eerlijk is en hun processen geen schade veroorzaken.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren