Data en ai
Artikel

AI in de spreekkamer – Wie draagt de verantwoordelijkheid? De robot of de zorgverlener?

Beeld; Shutterstock

Met de opkomst van ChatGPT en andere AI-technologieën maakt kunstmatige intelligentie een snelle opmars in de gezondheidszorg. AI wordt al breed toegepast, van het beoordelen van CT-scans tot het automatisch transcriberen van consulten [1].

Deze ontwikkeling komt op een cruciaal moment: de zorg staat onder druk door toenemende vraag en personeelstekorten. AI kan helpen met beslisondersteuning en het sneller vastleggen van medische informatie. Tegelijkertijd roept het belangrijke ethische vragen op, vooral over verantwoordelijkheid. Als een AI-systeem een fout maakt in een diagnose of behandeladvies, wie is dan aansprakelijk? De arts, de ontwikkelaar of het ziekenhuis?

Verschillende soorten AI: supervised en zelflerend

Voor zorgverleners is het belangrijk te begrijpen welk type AI wordt ingezet. Bij supervised learning wordt het systeem getraind met gelabelde data, wat veel expertise vereist. Steeds vaker wordt zelflerende AI ingezet om patronen te ontdekken in grote, ongestructureerde dataset zonder menselijke tussenkomst.

Zelflerende systemen kunnen zelfstandig beslissingen nemen en leren van fouten. Dit maakt ze krachtig, maar ook ondoorzichtig: het is vaak niet duidelijk hoe een beslissing tot stand komt – het zogeheten black box-effect. Dit gebrek aan herleidbaarheid is problematisch voor artsen en patiënten, omdat het vertrouwen in en de controle over medische beslissingen ondermijnt.

Ethische dilemma’s en risico’s

De verantwoordelijkheid bij fouten wordt complexer naarmate AI-systemen zelfstandiger opereren. Een fout kan voortkomen uit gebrekkige training, maar ook uit vooringenomen of niet-representatieve data. Als een systeem bijvoorbeeld vooral getraind is op beelden van één bevolkingsgroep, kan dat leiden tot verkeerde diagnoses bij andere groepen.[2]

Regelgeving: AI Act en veldnormen

De snelle opmars van AI maakt het lastig voor beleidsmakers om bij te blijven. De AI Act, die vanaf 2027 van kracht is, moet hierin verandering brengen [3]. Daarnaast is er sinds 2023 de Leidraad Kwaliteit AI in de Zorg [4], die beschrijft wat goed professioneel handelen is bij het ontwikkelen en toepassen van AI in de zorg.

Volgens deze leidraad blijven fabrikanten verantwoordelijk voor monitoring na implementatie, maar ook zorgorganisaties moeten actief toezien op juist gebruik en veiligheid. Dit vraagt om voldoende kennis en capaciteit binnen zorginstellingen. Ook het validatieframework dat op initiatief van het RIGH:T-consortium in ontwikkeling is en moet bepalen wanneer een AI-toepassing voldoende betrouwbaar is, richt zich op het inschatten en beheersen van risico’s.[5]

De kernvraag blijft: wie draagt de juridische verantwoordelijkheid bij fouten? Hierop geven de huidige richtlijnen nog geen sluitend antwoord. Verdere juridische verankering en heldere afspraken over aansprakelijkheid zijn daarom noodzakelijk om veilige en verantwoorde inzet van AI in de zorg te waarborgen. 

Neem als zorgorganisatie zelf de regie

AI maakt deel uit van een bredere digitaliseringstransitie. Toch loopt de zorgsector hierin vaak achter. Zoals Jeanine Peek (Capgemini) stelt: “Digitalisering overkomt veel organisaties, in plaats van dat ze zelf aan het stuur zitten.” [6] Dit geldt zeker voor AI. Zonder visie en strategie blijft het een losse innovatie, met blijvende onzekerheden.

Daarom is het essentieel dat zorgorganisaties zelf de regie nemen. Dit kan met de volgende stappen:

  1. Investeer in kennis en bewustzijn
    Zorg voor voldoende AI-expertise binnen de organisatie. Dit betekent niet alleen specialisten aantrekken, maar ook trainingen en bewustwording bij alle medewerkers.
  2. Formuleer een organisatiebrede AI-visie
    Formuleer een visie waarin niet alleen technologie, maar ook ethiek, governance en risicobeheersing centraal staan. AI moet onderdeel zijn van de bredere digitale strategie.
  3. Vertaal strategie naar beleid en kaders
    Richtlijnen voor implementatie, monitoring en evaluatie zijn essentieel. Maak afspraken over verantwoordelijkheid en aansprakelijkheid, en zorg voor naleving van wetgeving zoals de AI Act.
  4. Werk samen met leveranciers en de sector
    Maak duidelijke afspraken over transparantie en monitoring. Samenwerking binnen de sector, bijvoorbeeld via brancheorganisaties, kan bijdragen aan betrouwbaarheid en kennisdeling.

De integratie van AI in de zorgsector biedt zowel kansen als uitdagingen. Hoewel AI-systemen kunnen bijdragen aan efficiëntie en nauwkeurigheid, brengen ze ook ethische vraagstukken met zich mee, vooral rondom verantwoordelijkheid bij fouten. Het is van essentieel belang dat zorgorganisaties proactief de regie nemen door voldoende kennis op te bouwen, een duidelijke AI-strategie te formuleren en strikte monitoring en samenwerking met leveranciers te waarborgen. AI is geen toekomstmuziek meer. Alleen met regie, samenwerking en heldere kaders maken we de belofte van AI in de zorg waar.

[1] https://icthealth.nl/nieuws/ai-in-de-nederlandse-ziekenhuizen-de-stand-van-zaken  [2]https://pmc.ncbi.nlm.nih.gov/articles/PMC8515002/#:~:text=Racial%20bias%20in%20health%20care,money%20was%20spent%20on%20them.
[3] https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
[4] https://guideline-ai-healthcare.com/
[5] RIGH:T consortium opgericht voor verantwoorde inzet van generatieve AI in de zorg | LUMC 
[6] https://www.artsenauto.nl/5-lessen-voor-succesvol-digitaliseren-van-capgemini-directeur-jeannine-peek/

 

Auteurs kennisbijdrage van links naar rechts: Rachida Malloul en Marlies Grijsbach.

Rachida Malloul is werkzaam bij Capgemini Invent als Manager. Rachida heeft een achtergrond als zorgverlener en richt zich op de healthcare sector in Nederland op verschillende vraagstukken rakend aan digitalisering en transformaties, waaronder AI. Voor meer informatie kunt u contact opnemen via Linkedin.

Marlies Grijsbach is werkzaam bij Capgemini Invent als Manager. Marlies heeft een achtergrond als jurist in de gezondheidszorg en richt zich op verschillende vraagstukken binnen de zorg met een juridische component en beleid. Voor meer informatie kunt u contact opnemen via Linkedin.

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.
Registreren