Kwaliteitslabel AI voor Zorg - Specifieke AI-toepassingen

Artificiële intelligentie (AI) biedt kansen om de zorg te verbeteren, maar roept ook belangrijke vragen op. Hoe zorgen we ervoor dat AI klinisch relevant blijft, organisatorisch haalbaar is, juridisch correct wordt toegepast en ethisch verantwoord blijft? Het interdisciplinaire team van UGent Delta werkte hiervoor een leidraad uit.


Deze leidraad bouwt voort op bestaande kwaliteitsprincipes in de zorg en gebruikt het Quintuple Aim-model als kader. Ze helpt zorgorganisaties om AI-toepassingen te bespreken, te evalueren en onderbouwde keuzes te maken.


De checklist is geen afvinklijst, maar een hulpmiddel voor reflectie en dialoog. Het document is een werk in ontwikkeling en kan worden aangepast op basis van nieuwe inzichten en praktijkervaring.

Deze checklist focust op specifieke AI-toepassingen binnen zorgorganisaties. Ben je op zoek naar een checklist om het algemeen AI-beleid van je zorginstelling te evalueren? Gebruik dan de checklist voor algemeen AI-beleid.

1. Betere zorgervaring en gezondheidsuitkomsten voor de patiënt

Doel en waarde voor de patiënt van een specifieke AI-toepassing

1 Wat is het doel van deze specifieke AI-toepassing? Welk specifiek probleem dat zich voordoet met de huidige aanpak denkt u op te lossen door het gebruik van AI?

Ethisch AI moet vertrekken vanuit een duidelijk zorgprobleem. Wanneer de toepassing gericht is op een concrete nood in de zorg, is de kans groter dat ze echt bijdraagt aan het welzijn van patiënten en geen technologie wordt zonder duidelijke meerwaarde.

Organisatorisch Een duidelijke probleemstelling is het vertrekpunt voor een verantwoorde inzet van AI. Wanneer het doel en de scope helder zijn, kan men beter beoordelen wat technisch mogelijk en zinvol is. Zo voorkomt men dat technologie wordt ingevoerd zonder duidelijke nood, en kan AI gericht bijdragen aan betere werkprocessen en aan de bredere missie en strategie van de organisatie.

Impact op zorgproces en patiëntrol van een specifieke AI-toepassingen

2 Welke impact heeft deze specifieke AI-toepassing op de werking van (andere) interne processen, en hoe vertaalt zich dat naar verwachte performantieuitkomsten zoals kwaliteit van zorg, patiënttevredenheid, efficiëntie, financiële duurzaamheid en werkbeleving van zorgverleners?

Ethisch Zeer brede ethische voordelen: welzijn patiënt, welzijn zorgpersoneel, zelfbeschikking patiënt, rechtvaardige allocatie van middelen, etc.

Klinisch Performantie-uitkomsten moeten prospectief gedefinieerd worden voor objectieve evaluatie.

Organisatorisch AI heeft vaak invloed op meerdere werkprocessen tegelijk. Daarom is het belangrijk om vooraf na te denken over hoe processen moeten aangepast worden. Als processen niet mee evolueren, kan automatisering zelfs contraproductief werken. Door deze impact goed te bekijken, kan AI beter bijdragen aan kwaliteit van zorg, efficiëntie, werkbaarheid en financiële duurzaamheid.

3 Op welke manier beïnvloedt deze specifieke AI-toepassing de samenwerking binnen en tussen zorgteams, alsook tussen zorgprofessionals, IT, management en patiënten?

Ethisch Opnieuw heel brede ethische voordelen: betere samenwerking verhoogt kwaliteit van zorg en dus welzijn patiënt, etc.

Organisatorisch AI beïnvloedt hoe verschillende actoren samenwerken in het zorgproces. Daarom is het belangrijk om werkprocessen en rollen duidelijk in kaart te brengen. Zo wordt zichtbaar waar samenwerking nodig is tussen zorgprofessionals, IT en andere betrokkenen, en kan men ook voorzien in controles om de resultaten van AI-toepassingen te verifiëren.

Psychosociaal AI-gedreven taakverschuivingen beïnvloeden teamdynamieken en verantwoordelijkheden.

4 Welke veranderingen brengt deze AI-toepassing teweeg in de rol en werkervaring van zorgverleners, en in de rol en ervaring van patiënten binnen het zorgproces?

Klinisch Patiëntervaringen met AI-gestuurde zorg variëren en vereisen proactieve communicatie.

Opmerking Ik vind een impactanalyse voor alle elementen in de quintuple aim belangrijk (zie comment hierboven). Pas dan kan je de waarde van de AI-toepassing bepalen.

Organisatorisch AI kan de rol en werkervaring van zorgverleners en patiënten veranderen. Daarom is het belangrijk om deze impact actief op te volgen, bijvoorbeeld via duidelijke indicatoren rond kwaliteit van zorg, patiënttevredenheid en werkbeleving van medewerkers, zoals autonomie, leermogelijkheden en technostress.

Psychosociaal Veranderingen in professionele rol beïnvloeden werkbeleving en jobvoldoening.

5 Worden patiënten geïnformeerd wanneer een specifieke AI-toepassing een rol speelt in hun zorgtraject? Op welke manier?

Ethisch Transparantie over het gebruik van AI is belangrijk om het vertrouwen tussen zorgverlener en patiënt te behouden. Open communicatie helpt patiënten om geïnformeerde keuzes te maken en ondersteunt hun recht op zelfbeschikking.

Juridisch Patiënten hebben recht op informatie over AI-rol in hun zorg (GDPR, patiëntenrechten).

Opmerking Transparantie over het gebruik van AI is belangrijk, maar hoeft niet in elk detail te gebeuren. Patiënten moeten vooral geïnformeerd worden wanneer AI een duidelijke rol speelt in hun zorg of wanneer er specifieke risico’s aan verbonden zijn.

Organisatorisch Bedrijfscommunicatie kan hierbij een rol spelen, alsook het geven van garanties over de menselijke rol in het zorgtraject

6 Hebben patiënten de mogelijkheid om vragen te stellen, bedenkingen te uiten of (waar relevant) gebruik van AI-toepassingen te weigeren in hun zorgpad?

Ethisch Patiënten moeten vragen kunnen stellen en informatie krijgen over hun zorgproces. Dat ondersteunt geïnformeerde toestemming, beschermt hun autonomie en helpt misbruik of schade, bijvoorbeeld door privacy-inbreuken, te voorkomen. Tegelijk blijft de verantwoordelijkheid voor het gebruik van AI bij de zorgverlener en de organisatie, zodat die niet bij de patiënt wordt gelegd. Dit kan ook bijdragen aan langdurig vertrouwen in het zorgsysteem.

Organisatorisch AI zit vaak onzichtbaar ingebed in werkprocessen, waardoor patiënten niet altijd een specifieke toepassing kunnen weigeren. Daarom is het belangrijk dat duidelijk blijft dat menselijke specialisten een centrale rol behouden in de zorg. Heldere communicatie over het gebruik en de voordelen van AI voor de patiëntenzorg helpt daarbij om vertrouwen te behouden.

7 Hoe wordt omgegaan met situaties waarin patiënten beslissingen betwisten die gemaakt werden met hulp van een specifieke AI-toepassing?

Ethisch Ondersteunt zelfbeschikking; rechtvaardigheid; verantwoordelijkheid

Juridisch Wanneer patiënten een beslissing betwisten, blijft de arts in de eerste plaats verantwoordelijk voor de genomen beslissing, ook wanneer AI werd gebruikt als ondersteuning. Tegelijk hebben patiënten volgens de GDPR recht op uitleg over beslissingen waarbij AI een rol speelt. Indien nodig moet ook duidelijk zijn welke verantwoordelijkheid bij de leverancier van de AI-toepassing ligt, zoals contractueel vastgelegd.

Organisatorisch Klachtenprocessen rond AI-beslissingen vereisen duidelijke escalatie- en herzienprocedures.

Evaluatie vanuit patiëntperspectief van specifieke AI-toepassingen

8 Hoe evalueer je de impact en effectiviteit van het proces waarin deze specifieke AI-toepassing wordt gebruikt? Sluit dit aan bij de waarden en doelstellingen van de zorginstelling? Van de individuele zorgverlener? Van de patiënt?

Ethisch Waardengedreven beleid is belangrijk in termen van integriteit en wederzijds vertrouwen tussen zorgverleners, patiënten, instellingen, beleidsmakers, etc.

Opmerking Gaat de "dit" in "Sluit dit aan" over de evaluatie of de impact?

Organisatorisch Het is belangrijk om de impact van AI systematisch te evalueren. Dat kan via duidelijke indicatoren die aansluiten bij de strategie, waarden en doelstellingen van de organisatie. Door bijvoorbeeld procestijd, kosten, kwaliteit en flexibiliteit te meten vóór en na de invoering van AI, kan men nagaan of de toepassing werkelijk bijdraagt aan betere zorg en aan de missie van de instelling.

Psychosociaal Alignering met zorgverlenerswaarden is cruciaal voor duurzame AI-adoptie op de werkvloer.

9 Zal deze specifieke AI-toepassing gevalideerd worden binnen uw instelling?

Ethisch Welzijn van de patiënt (niet-gevalideerde toepassingen riskeren meer kwaad dan goed te doen in een bepaalde setting)

Klinisch AI-toepassingen moeten lokaal gevalideerd worden, omdat prestaties kunnen verschillen tussen patiëntengroepen en zorgcontexten. Externe validatie alleen volstaat niet om te garanderen dat het systeem binnen de eigen instelling even goed werkt.

Opmerking Ik zie niet in waarom dit onder het patiëntenperspectief valt.

Organisatorisch Vooraleer een AI-toepassing breed wordt ingevoerd, is het belangrijk om eerst te bekijken of lokale validatie nodig of wenselijk is. Door de toepassing eerst op kleinere schaal te testen en intern te valideren, kunnen fouten opgespoord worden, groeit het vertrouwen bij medewerkers en kan de uitrol later veiliger en efficiënter verlopen.

10 Hoe evalueer je de meerwaarde, impact en effectiviteit van deze specifieke AI-toepassing? Sluit dit aan bij de waarden en doelstellingen van de zorginstelling? Van de individuele zorgverlener? Van de patiënt?

Economisch Zonder evaluatie blijft een investering in AI vooral een kwestie van geloof in plaats van een onderbouwde keuze.

Ethisch Dit overlapt heel erg met puntje 8, zelfde argument: waardengedreven beleid is belangrijk in termen van integriteit en wederzijds vertrouwen tussen zorgverleners, patiënten, instellingen, beleidsmakers, etc.

Opmerking Zelfde bedenking als bij vraag 8. Als het over de impact gaat en niet de evaluatie zelf, zou ik dit opsplitsen in twee vragen.

Organisatorisch De meerwaarde van een AI-toepassing moet geëvalueerd worden door de prestaties van het zorgproces vóór en na de invoering te vergelijken. Daarbij is het belangrijk om niet alleen naar efficiëntie te kijken, maar naar meerdere dimensies, zoals kwaliteit van zorg, ervaring van patiënten en zorgverleners en duurzaamheid van het systeem. Ook is het zinvol om verschillende AI-alternatieven te overwegen voordat men tot uitrol overgaat.

11 Wordt er systematisch feedback verzameld van gebruikers van deze specifieke AI-toepassing? (Bv. artsen, verpleegkundigen, patiënten). Door wie? Hoe, wanneer en door wie wordt deze feedback geanalyseerd en gerapporteerd, en aan wie en waar?

Ethisch Het verzamelen van feedback over het gebruik van AI is belangrijk om na te gaan of de toepassing daadwerkelijk bijdraagt aan het welzijn van de patiënt en aan goede zorg.

Klinisch Systematische feedbackverzameling detecteert vroeg problemen die niet zichtbaar zijn in data.

Opmerking Ook hier moet volgens mij nog de vraag voor over of het nodig/wenselijk is om deze informatie te verzamelen. Voor sommige AI-toepassingen zal dat meer nodig zijn dan voor anderen.

Opmerking Deze vraag zit ook op meerdere niveau's. Voor AI-toepassingen met een bewezen werking zal de feedback vooral gaan over hoe dat systeem geïntegreerd wordt in de bestaande werking. Voor AI-toepassingen in een onderzoeksfase moet de feedback ook gaan over de toepassing zelf.

Organisatorisch Systematische feedback van gebruikers is belangrijk om de werking van AI en het zorgproces te blijven verbeteren. Die feedback kan verschillen naargelang de fase van de toepassing: bij onderzoek gaat ze ook over de technologie zelf, terwijl ze bij een bewezen toepassing vooral focust op de integratie in het werkproces. Door feedback te verzamelen van verschillende betrokkenen en die op te volgen binnen het procesteam en samen met IT, kan men de prestaties en impact van de toepassing beter bewaken en bijsturen.

12 Wordt deze AI-toepassing na implementatie periodiek opnieuw geëvalueerd (bv. klinische performantie, gebruik, impact op zorgervaring)?

Ethisch Door AI-toepassingen na implementatie regelmatig opnieuw te evalueren, kan men nagaan of ze blijven bijdragen aan het welzijn van de patiënt en aan goede zorg.

Klinisch AI-toepassingen moeten ook na implementatie regelmatig opnieuw geëvalueerd worden, omdat hun prestaties in de praktijk kunnen veranderen. Periodieke opvolging is daarom technisch noodzakelijk om de kwaliteit en betrouwbaarheid van het systeem te blijven garanderen.

Organisatorisch Zeker van belang maar niet noodzakelijk belangrijker dan de evaluatie van andere tools die gebruikt worden.

Opmerking Net zoals bij een vorig punt, zie ik dit meer samen met de continue monitoring en evaluatie van de processen. Als blijkt dat er procesperformatieproblemen zijn, dient er te worden nagedacht naar vebeteringen. Of als er nieuwe IT opportuniteiten zijn, kan men exploreren hoe het proces hier beter van wordt. Dus een combinatie van exploitatie en exploratie, ofwel ambidexteriteit.

Technisch Verandering in patiëntenpopulatie kan impact hebben op de prestatie.

13 Welke indicatoren of signalen geven aanleiding tot bijsturing of herbeoordeling van deze AI-toepassing?

Ethisch Signalen zoals problemen met patiëntveiligheid, privacy, zelfbeschikking of rechtvaardigheid kunnen aanleiding geven om een AI-toepassing opnieuw te beoordelen of bij te sturen. Deze ethische waarden helpen te bepalen of het gebruik van AI nog verantwoord is.

Klinisch Prestatie-indicatoren voor AI moeten zowel technische als klinische parameters omvatten.

Organisatorisch Duidelijke en vooraf bepaalde KPI’s helpen om objectief op te volgen of een AI-toepassing bijdraagt aan de strategische doelstellingen van de organisatie. Wanneer deze indicatoren niet worden gehaald, of wanneer er veel klachten komen van patiënten of medewerkers, kan dat een signaal zijn om de toepassing bij te sturen of opnieuw te beoordelen.

14 Zijn er vooraf vastgelegde criteria of scenario’s waarin de AI-toepassing tijdelijk wordt opgeschort of stopgezet?

Ethisch Vooraf vastgelegde criteria helpen om te bepalen wanneer een AI-toepassing moet worden opgeschort of stopgezet. Daarbij spelen ethische overwegingen een belangrijke rol, zoals het welzijn van de patiënt, privacy, zelfbeschikking en rechtvaardigheid.

Juridisch Expliciete exitcriteria zijn essentieel voor patiëntveiligheid en juridische aansprakelijkheid.

Klinisch Vooraf vastgelegde stopscenario's voorkomen dat slechte AI-systemen te lang in gebruik blijven.

Organisatorisch Nodig om snel te kunnen handelen.

2. Welzijn, werkbaarheid en professionele ontwikkeling van zorgverleners

Betrokkenheid en besluitvorming

15 Worden zorgverleners en medewerkers betrokken bij het selecteren of ontwikkelen van deze specifieke AI-toepassing?

Ethisch Het betrekken van zorgverleners en medewerkers bij de selectie of ontwikkeling van AI helpt om de kwaliteit van zorg te bewaken en morele stress bij personeel te vermijden. Zo blijft het gebruik van AI afgestemd op het welzijn van patiënten en op de professionele waarden van zorgverleners.

Opmerking Selecteren en ontwikkelen zijn wel twee heel verschillende dingen. Ik vind dat die opdeling in alle vragen te weinig naar voor komt.

Organisatorisch Het betrekken van zorgverleners en andere betrokkenen bij de selectie of ontwikkeling van AI is belangrijk omdat zij de werkcontext het best kennen. Cocreatie helpt om de toepassing beter af te stemmen op de praktijk, verhoogt de aanvaarding bij medewerkers en vergroot zo de kans op een succesvolle implementatie.

Psychosociaal Betrokkenheid bij selectie verhoogt adoptiebereidheid en verlaagt weerstand.

Werkstructuur en taakverdeling

16 Hoe wordt het monitoren en begeleiden van eventuele veranderingen in werkwijzen (bv. taakverschuivingen) die ontstaan door de implementatie van deze specifieke AI-toepassing georganiseerd?

Organisatorisch De invoering van AI kan geleidelijk veranderingen veroorzaken in werkprocessen en taakverdeling. Daarom is het belangrijk om deze evoluties actief te monitoren. Wanneer processen wijzigen, moeten betrokken medewerkers passende en jobspecifieke opleiding krijgen om de implementatie succesvol te laten verlopen.

Psychosociaal Bewust monitoren van werkwijzeveranderingen beschermt werknemersrechten en -welzijn.

17 Wie kan welke processen/parameterinstellingen i.v.m. deze specifieke AI-toepassing op de werkvloer aansturen/(laten) instellen? Wie neemt/krijgt de eindverantwoordelijkheid?

Ethisch Een AI-systeem kan zelf geen verantwoordelijkheid dragen. Daarom moet duidelijk vastliggen welke persoon of organisatie verantwoordelijk is voor de instellingen, het gebruik en de beslissingen rond de toepassing. De eindverantwoordelijkheid moet altijd bij een mens of rechtspersoon liggen, niet bij de technologie.

Organisatorisch Duidelijke rolverdeling is nodig om AI-toepassingen goed aan te sturen. Een procesverantwoordelijke volgt doorgaans de werking op en stuurt bij, eventueel samen met het IT-departement. De uiteindelijke verantwoordelijkheid blijft echter bij het topmanagement, zodat de verantwoordingslijnen binnen de organisatie helder blijven.

18 Wordt deze specifieke AI-toepassing ingezet als “vangnet” (menselijke actie eerst, met op achtergrond controle door AI) of als “hangmat” (AI beslist/suggereert eerst en mens moet enkel bevestigen)?

Juridisch De keuze tussen AI als vangnet of als eerste adviseur heeft belangrijke gevolgen voor patiëntveiligheid en aansprakelijkheid. Daarom moet duidelijk zijn dat de menselijke verantwoordelijkheid steeds behouden blijft bij het gebruik van AI in de zorg.

Klinisch Hangmat-configuraties verhogen automation complacency; vangnet behoudt menselijke alertheid.

Organisatorisch Dit is afhankelijk van proces tot proces. Al mogen werknemers niet de indruk krijgen van gecontroleerd te worden omdat dit negatief kan zijn voor hun werkvreugde en hun gevoel van autonomie inperken. Een gezonde mens-AI samenwerking waarbij menselijke talent wordt erkend is nodig voor aanvaarding en succes.

Technisch Je wil volledig autonome beslissingen, die zware gevolgen kunnen hebben, uitsluiten.

Organisatiecultuur, leren en ondersteuning

19 Welke opleidings- en ondersteuningsinitiatieven worden voorzien om zorgverleners adequaat te begeleiden bij het gebruik van deze AI-toepassing? (Denk aan training, coaching, toegang tot technische ondersteuning of peer learning.)

Klinisch Gerichte AI-training verhoogt correct gebruik en vermindert risico op gevaarlijke fouten.

Organisatorisch Zorgverleners hebben opleiding en ondersteuning nodig om AI op een veilige en doordachte manier te gebruiken. Inzicht in de werking van de toepassing vergroot hun weerbaarheid en helpt om AI correct in de werkprocessen te integreren. Initiatieven zoals training, coaching, peer learning, IT-ondersteuning en duidelijke communicatie ondersteunen de adoptie en helpen om kennis en goede praktijken te delen.

20 Welke maatregelen worden genomen om mogelijke negatieve effecten op processen, samenwerking, rollen, cultuur of ervaringen te voorkomen, te beperken, op te sporen en te documenteren?

Economisch Negatief effect op samenwerking, cultuur, ... kan het positieve effect van de AI-toepassing teniet doen.

Ethisch Documentatie van negatieve effecten is basis voor leren en toekomstige verbetering.

Organisatorisch De invoering van AI kan verschillende effecten hebben op processen, rollen en samenwerking. Daarom is het belangrijk om mogelijke negatieve gevolgen actief te monitoren en te documenteren. Door processen op te volgen en tijdig bij te sturen wanneer problemen of ongewenste effecten optreden, kan men de verandering beter begeleiden en ervoor zorgen dat de implementatie door medewerkers gedragen blijft.

Biases met impact op professioneel handelen

21 Welke inspanningen zullen jullie leveren om bij de inzet van AI stil te staan bij taakverschuivingen en samenwerking tussen mens en machine? Hoe bewaak je de rol en expertise van zorgprofessionals?

Klinisch Expliciete reflectie op mens-machine samenwerking voorkomt erosie van professionele expertise.

Opmerking De beperkingen en mogelijkheden van het systeem moeten duidelijk zijn voor het zorgpersoneel, enkel zo kan je een vlotte samenwerking garanderen.

Organisatorisch Bij de inzet van AI is het belangrijk om aandacht te hebben voor taakverschuivingen en de samenwerking tussen mens en technologie. Door zorgverleners te betrekken bij het herdenken van werkprocessen en regelmatig feedback te vragen, blijft hun expertise erkend. Dit helpt ook om hun gevoel van autonomie, verbondenheid en professionele waarde te behouden, wat belangrijk is voor motivatie en werktevredenheid.

Psychosociaal Bewust taakverschuivingsbeleid beschermt zorgverleners tegen ongewenste rol-onduidelijkheid.

22 Hoe zorgen jullie ervoor dat medewerkers alert blijven bij het gebruik van AI? Wordt er training of ondersteuning voorzien om actief toezicht te houden?

Klinisch Om medewerkers alert te houden bij het gebruik van AI is opleiding essentieel. Zorgverleners moeten begrijpen hoe de specifieke toepassing werkt en waar de beperkingen liggen. Oefeningen, bijvoorbeeld met foutieve AI-output, kunnen helpen om hun kritische blik en waakzaamheid te versterken.

Organisatorisch Om medewerkers alert te houden bij het gebruik van AI is voortdurende opleiding en ondersteuning nodig. Zorgverleners moeten niet alleen de specifieke toepassing kennen, maar ook inzicht hebben in de algemene beperkingen van AI. Training, communicatie en HR-initiatieven helpen om een kritische houding te stimuleren en de waarden te versterken die de organisatie met AI wil realiseren.

23 Worden de beperkingen van de toepassing uitgelegd aan de medewerkers?

Ethisch Transparantie over beperkingen van AI is een ethische verplichting naar gebruikers toe.

Klinisch Begrip van AI-beperkingen is essentieel om output correct te interpreteren en fouten te herkennen.

Organisatorisch Medewerkers moeten de beperkingen van AI-toepassingen begrijpen om ze correct te gebruiken en mogelijke problemen te herkennen. Daarom is basiskennis over AI voor iedereen belangrijk, aangevuld met meer gerichte, functiegebonden opleidingen en eventueel een algemene training om het bewustzijn rond AI te vergroten.

24 Welke stappen ondernemen jullie om kritisch denken rond de ondersteuning door AI-toepassingen bij medewerkers te versterken? Hoe moedig je het aan om AI-output steeds te blijven toetsen aan eigen expertise of overleg?

Ethisch Omdat AI-toepassingen fouten kunnen maken, is het belangrijk dat medewerkers AI-output kritisch blijven beoordelen. Door ruimte te geven om AI-suggesties te betwisten en te toetsen aan eigen expertise of overleg, blijft de professionele autonomie van zorgverleners behouden en blijft duidelijk wie verantwoordelijk is voor de uiteindelijke beslissing.

Klinisch Kritisch denken over AI-output is een aangeleerde vaardigheid die actief geoefend moet worden.

Organisatorisch Het is belangrijk dat medewerkers AI-output niet blindelings volgen. Door duidelijke communicatie over het AI-beleid en gerichte opleiding via HR kan een kritische houding tegenover AI worden gestimuleerd en versterkt. Zo blijven zorgverleners AI-resultaten toetsen aan hun eigen expertise en professioneel oordeel.

25 Hoe zorgen jullie ervoor dat medewerkers ook blijven leren en zich kunnen ontwikkelen, ondanks de inzet van AI? Wordt er ruimte gemaakt om actief te blijven oefenen of mee te denken met het systeem?

Juridisch De arts blijft over het algemeen verantwoordelijk voor de beslissingen. Die moet zelf dus nog in staat zijn die verantwoordelijkheid te dragen.

Klinisch Ook bij het gebruik van AI moeten medewerkers hun kennis en vaardigheden blijven ontwikkelen. Omdat AI-resultaten gecontroleerd moeten worden, is het belangrijk dat expertise behouden blijft. Door ruimte te maken om actief te blijven oefenen en mee te denken met het systeem, kan men deskilling voorkomen en de klinische competenties van zorgverleners behouden.

Organisatorisch Ook bij de inzet van AI is het belangrijk dat medewerkers blijven leren en zich verder kunnen ontwikkelen. Leerruimte en levenslang leren helpen om expertise te behouden en te versterken. Wanneer AI ruimte creëert voor verdere specialisatie, kan dat bovendien bijdragen aan meer werkvreugde, motivatie en kwaliteit van zorg.

3. Efficiëntie en duurzaamheid

Randvoorwaarden en risico’s

26 Weet u of de trainingsdata van deze specifieke AI-toepassing representatief zijn voor uw patiëntenpopulatie?

Ethisch Databias in AI is een belangrijk risico voor gezondheidsongelijkheid in de zorg.

Klinisch Het is belangrijk dat de trainingsdata van een AI-toepassing representatief zijn voor de patiëntenpopulatie. Als dat niet het geval is, kan het systeem minder goed werken en systematische fouten maken voor bepaalde patiëntengroepen.

Organisatorisch Elke digitale innovatie dient grondig te worden getest, alvorens uit te rollen op grotere schaal.

27 Welke risico’s ziet de organisatie bij gebruik van deze specifieke AI-toepassing binnen de zorgprocessen? (Bv. bias, fouten, verminderde menselijke controle, …)

Juridisch Gedocumenteerde risicoanalyse is noodzakelijk voor conformiteit met de EU AI Act.

Klinisch Proactieve risicoidentificatie is vereist voor veilige AI-implementatie in hoog-risico zorgcontexten.

Organisatorisch Het in kaart brengen van risico’s is belangrijk om AI op een verantwoorde en duurzame manier in het zorgproces te integreren. Door mogelijke sterktes, zwaktes, kansen en bedreigingen systematisch te analyseren, kan de organisatie beter anticiperen op problemen en gepaste maatregelen nemen.

28 Hoe zullen deze risico’s worden gemitigeerd?

Economisch Extra vraag: is het nodig om de geidentificeerde risico's te mitigeren?

Ethisch Restrisico's na mitigatie moeten expliciet gecommuniceerd worden naar gebruikers.

Organisatorisch Risico’s met een belangrijke negatieve impact moeten zoveel mogelijk vermeden of beperkt worden. Effectieve risicobeheersing vraagt daarom zowel technische maatregelen als aandacht voor gedrag en werkwijzen van medewerkers.

29 Zijn er fallbackprocedures voorzien voor als dit specifieke AI-systeem faalt of foutieve output genereert?

Juridisch Er moet een (rechts)persoonlijke verantwoordelijkheid zijn.

Klinisch AI-systemen kunnen fouten maken of uitvallen. Daarom zijn fallbackprocedures nodig om de continuïteit van zorg te garanderen. Door menselijke controle te behouden en alternatieve werkwijzen te voorzien, kunnen mens en technologie elkaar aanvullen en fouten beter opvangen.

Organisatorisch Fallbackprocedures zijn nodig om te voorkomen dat een organisatie te afhankelijk wordt van AI. Wanneer het systeem faalt of foutieve output geeft, moeten zorgverleners kunnen ingrijpen en beslissingen overrulen. De uiteindelijke verantwoordelijkheid blijft bij mensen, die bovendien belangrijke menselijke vaardigheden behouden zoals context inschatten, empathie tonen en ethische afwegingen maken.

30 Hoe transparant is deze specifieke AI-toepassing? (Bv. informatie over trainingsdata en algoritmekenmerken)

Ethisch Transparantie over algoritme en trainingsdata is vereist voor vertrouwen en auditbaarheid.

Juridisch Explainability is technisch en juridisch vereist voor verantwoord AI-gebruik in de zorg.

Klinisch Algoritmekenmerken zijn vooral belangrijk als je op zoek bent naar systemen waarvan de beslissing verklaarbaar is.

Organisatorisch Informatie over de trainingsdata is essentieel om de prestatie te kunnen inschatten op de eigen populatie.

31 Zijn er duidelijke afspraken gemaakt over de mogelijkheid om AI-output naast zich neer te leggen?

Ethisch AI beschikt vaak niet over alle relevante informatie over een patiënt. Daarom moeten zorgverleners altijd de mogelijkheid hebben om AI-aanbevelingen naast zich neer te leggen en hun beslissing te baseren op hun professionele oordeel en de volledige context.

Juridisch Duidelijke afspraken beschermen professionals juridisch bij conflict met AI-output.

Organisatorisch AI-output mag niet als absolute waarheid worden beschouwd. Daarom moeten er duidelijke afspraken zijn over wanneer zorgverleners AI-advies kunnen negeren en hun eigen expertise laten doorwegen. Deze afspraken kunnen vastgelegd worden in een centraal AI-beleid en verder uitgewerkt worden in procedures binnen de werkprocessen.

32 Hoe worden AI-gerelateerde fouten, incidenten of bijna-incidenten herkend, gemeld en opgevolgd binnen de organisatie?

Klinisch AI-incidenten melden is essentieel voor leren en verbetering van systeemsafety.

Organisatorisch AI-gerelateerde fouten en incidenten moeten opgenomen worden in bestaande veiligheids- en incidentrapportagesystemen. Door fouten systematisch te registreren en processen op te volgen, kunnen onderliggende problemen in het systeem of het werkproces worden opgespoord. Wanneer nodig kan dit leiden tot bijsturing van het proces, de technologie of een escalatie naar IT, een AI-team of het management.

33 Is de opvolging van AI-incidenten geïntegreerd in bestaande kwaliteits- of incidentmeldingssystemen?

Klinisch Consistente AI-incidentopvolging is vereist voor systeemveiligheid en lerende organisatie.

Organisatorisch Het opvolgen van AI-incidenten wordt best geïntegreerd in bestaande kwaliteits- en incidentmeldingssystemen. Zo blijft het gebruik van AI niet los staan van andere zorgtools en wordt de drempel om problemen te melden en op te volgen lager. Dit versterkt de algemene kwaliteitsbewaking binnen de zorgorganisatie.

4. Rechtvaardigheid, inclusie en gelijke toegang tot zorg

Bias en ongelijke effecten

34 Welke inspanningen zal jullie organisatie leveren om onderstaande biases te voorkomen of te beperken binnen deze specifieke AI-toepassing? Substitutiemythe: De foute aanname dat AI een medewerker kan vervangen zonder dat dit invloed heeft op de werkverdeling of samenwerking.

Ethisch Je wil niet de indruk geven dat medewerkers moeten vrezen voor hun job omdat ze één op één vervangen zullen worden.

Organisatorisch Een medewerker zal zelden één op één vervangen kunnen worden. Zal meestal gaan over subtaken wat een werkreorganisatie noodzakelijk maakt.

Organisatorisch Jobspecifieke opleidingen geven om samen te werken met AI, en mensen zich meer laten specialiseren

Zie andere sheet

34 Welke inspanningen zal jullie organisatie leveren om onderstaande biases te voorkomen of te beperken binnen deze specifieke AI-toepassing? Automation complacency: De neiging om blindelings te vertrouwen op een AI-systeem, waardoor fouten niet opgemerkt worden.

Ethisch Het moment dat personeel automation complacent is, zijn ze overbodig.

Organisatorisch Onderzoek toont aan dat mens en AI elkaar kunnen versterken. Hiervoor is er echter een kritische menselijke blik nodig.

organisatorisch Jobspecifieke opleidingen geven die een kritische blik op AI stimulereb, en verhalen rond slecht AI advies op procesniveau delen met advies hoe hiermee om te gaan

Zie andere sheet

34 Welke inspanningen zal jullie organisatie leveren om onderstaande biases te voorkomen of te beperken binnen deze specifieke AI-toepassing? Automation bias: De neiging om de output van een AI-systeem sneller te geloven dan het eigen oordeel, ook bij fouten.

Organisatorisch Bij twijfel is een extra verificatie van de beslissing nodig.

organisatorisch Opleidingen die een kritsche blik op AI stimuleren, en verhalen rond slecht AI advies delen met advies hoe hiermee om te gaan. Uiteindelijk gaan de biases allen om een goede bewustwording en opleiding

Zie andere sheet

34 Welke inspanningen zal jullie organisatie leveren om onderstaande biases te voorkomen of te beperken binnen deze specifieke AI-toepassing? Generation effect en deskilling: Mensen leren minder goed wanneer ze passief informatie ontvangen via AI, in plaats van zelf actief na te denken of beslissingen te nemen.

Organisatorisch Nieuwe medewerkers moeten de kans krijgen om vaardigheden te verwerven voor ze gebruik maken van AI-toepassingen.

Organisatorisch Mensen laten specialiseren, leren omgaan met mens-AI samenwerking, en goede training

Zie andere sheet

5. Databeheer, privacy en vertrouwen

Externe aanbieders

35 Wordt er gewerkt met externe AI-aanbieders? Zo ja, hoe wordt dat juridisch en ethisch opgevolgd?

Juridisch Wie is er verantwoordelijk voor fouten.

Zie andere sheet

36 Wordt er gewerkt met patiëntengegevens van uw instelling? Hoe worden deze gebruikt? Binnen welke juridische constructie worden deze data gebruikt?

Ethisch Het gebruik van patiëntengegevens vraagt duidelijke afspraken en transparantie. Dat vergroot het vertrouwen van patiënten en helpt om ethische vragen correct te behandelen, bijvoorbeeld wanneer gegevens worden vergeleken of wanneer AI mogelijke gezondheidsproblemen detecteert zonder dat de patiënt daar expliciet om vroeg. Daarom moet duidelijk zijn hoe deze data worden gebruikt en binnen welk juridisch kader.

Juridisch Gebruik van patiëntengegevens voor AI-training vereist expliciete wettelijke grondslag.

37 Is uw instelling transparant over het gebruik van patiëntengegevens in deze toepassing?

Juridisch Transparantie over het gebruik van patiëntengegevens is essentieel. Patiënten moeten weten hoe hun gegevens worden gebruikt en waar nodig hun toestemming kunnen geven, zoals ook vereist is onder de GDPR.

38 Hoe werd nagegaan dat deze AI-toepassing voldoet aan relevante regelgeving (bv. GDPR, MDR/IVDR, EU AI Act indien van toepassing)?

Economisch Gestructureerde compliance-check bij aankoop vermijdt kostbare aanpassingen achteraf.

Juridisch Het is belangrijk om na te gaan of de AI-toepassing voldoet aan relevante regelgeving, zoals GDPR, MDR/IVDR en de EU AI Act. Naleving van deze regels is wettelijk verplicht en helpt om juridische risico’s en mogelijke sancties te vermijden.

39 Hoe worden zorgverleners ondersteund om wettelijke verplichtingen correct toe te passen in het dagelijks gebruik van deze AI-toepassing?

Juridisch Zorgverleners hebben praktische ondersteuning nodig om juridische plichten correct toe te passen.

Organisatorisch Voldoen aan wettelijke verplichtingen zou opgenomen moeten zijn in de processen. Individuele zorgverleners zouden daar eigenlijk zo weinig mogelijk stil bij moeten staan.

Copyright

CC BY-NC-SA 4.0

Creative Commons BY-NC-SA licentie

© 2026 Universiteit Gent – UGent Delta.
Dit werk wordt beschikbaar gesteld onder de Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal (CC BY-NC-SA 4.0) licentie.

Je mag dit materiaal delen, remixen, aanpassen en erop verder bouwen, uitsluitend voor niet-commerciële doeleinden, mits correcte bronvermelding en verspreiding van afgeleide werken onder dezelfde licentievoorwaarden.

  • BY: naamsvermelding van de maker is verplicht.
  • NC: enkel niet-commercieel gebruik is toegestaan.
  • SA: afgeleide werken moeten onder dezelfde voorwaarden gedeeld worden.

Aanbevolen bronvermelding

Bourgonjon, J., Annemans, L., Gesquière, N., Goffin, T., Mertes, H., Neutens, T., Van de Weghe, N., Van Biesen, W., Van Looy, A., & Verhenneman, G. (2026). Kwaliteitslabel AI voor Zorg. UGent Delta, Universiteit Gent.


Over de auteurs

Work in progress

Dit kwaliteitslabel is een work in progress. Diverse mensen gelinkt aan de UGent werkten eraan mee, via gesprekken, workshops of individuele bijdragen.


Kernteam: coördinatie

Lieven Annemans, Jeroen Bourgonjon, Tom Goffin, Wim Van Biesen, Griet Verhenneman.


Auteursteam: schrijven

Jeroen Bourgonjon, Lieven Annemans, Natacha Gesquière, Tom Goffin, Heidi Mertes, Tom Neutens, Nico Van de Weghe, Wim Van Biesen, Amy Van Looy, Griet Verhenneman.


Consultatieteam: bijdrages via workshops, gesprekken ...

Laetitia Aerts, Lieven Annemans, Sofie Bekaert, Jeroen Bourgonjon, Femke De Backere, Thomas Demeester, Joni Dambre, Natacha Gesquière, Tom Goffin, Veronique Hoste, Teodora Lalova-Spinks, Erik Mannens, Heidi Mertes, Tom Neutens, Paloma Rabaey, Sigrid Sterckx, Sylvie Tack, Nico Van de Weghe, Wim Van Biesen, Amy Van Looy, Marthe Van Overbeke, Griet Verhenneman.