Artificiële intelligentie (AI) biedt kansen om de zorg te verbeteren, maar roept ook belangrijke vragen op. Hoe zorgen we ervoor dat AI klinisch relevant blijft, organisatorisch haalbaar is, juridisch correct wordt toegepast en ethisch verantwoord blijft? Het interdisciplinaire team van UGent Delta werkte hiervoor een leidraad uit.
Deze leidraad bouwt voort op bestaande kwaliteitsprincipes in de zorg en gebruikt het Quintuple Aim-model als kader. Ze helpt zorgorganisaties om AI-toepassingen te bespreken, te evalueren en onderbouwde keuzes te maken.
De checklist is geen afvinklijst, maar een hulpmiddel voor reflectie en dialoog.
Het document is een werk in ontwikkeling en kan worden aangepast op basis van nieuwe inzichten
en praktijkervaring.
Deze checklist focust op het algemeen AI-beleid binnen zorgorganisaties. Ben je op zoek naar een checklist om specifieke AI-toepassingen in de zorg te evalueren? Gebruik dan de checklist voor specifieke AI-toepassingen.
Economisch Zonder duidelijk doel verhoogt AI implementatierisico en verspilling van middelen.
Ethisch AI moet een echte zorgnood oplossen. Wanneer technologie vertrekt vanuit een concrete vraag van patiënten of zorgverleners, is de kans groter dat ze echt bijdraagt aan betere zorg.
Organisatorisch Als je geen duidelijk doel hebt, weet je niet waarom je AI inzet. Dan riskeer je geld te verspillen, verkeerde KPI’s te kiezen en technologie te gebruiken die niet past bij je missie. AI moet een echte zorgnood oplossen en aansluiten bij je strategie, niet omgekeerd.
Ethisch Duidelijke betrokkenheid in de besluitvorming maakt het mogelijk om verantwoordelijkheid te nemen en beslissingen achteraf goed te verantwoorden.
Klinisch Zorgverleners op de werkvloer herkennen risico's die bestuurders missen.
Organisatorisch AI verandert werkprocessen. Als beslissingen enkel top-down gebeuren zonder afstemming tussen niveaus, ontstaat weerstand en mislukken implementaties. Goede afstemming zorgt ervoor dat strategie ook echt werkt op de werkvloer.
Psychosociaal Wanneer zorgverleners betrokken worden bij de keuze en invoering van nieuwe tools, neemt het draagvlak toe en blijft het werk motiverend.
Ethisch Zorgverleners blijven verantwoordelijk tegenover patiënten. Zonder kritisch denken en gedeelde verantwoordelijkheid kunnen privacyproblemen, fouten en morele stress ontstaan. Zorgverleners voelen zich dan misschien ongemakkelijk bij het gebruik van AI-toepassingen.
Juridisch Nalaten om mensen op te leiden over de beperkingen kan ervoor zorgen dat de instelling verantwoordelijk gesteld kan worden voor klinische fouten.
Klinisch Kritisch denken over AI-output voorkomt automation bias en verbetert patiëntveiligheid.
Economisch Opleiding enkel laten geven door externen kan een hoog kostenplaatje opleveren.
Ethisch Zorgverleners moeten AI goed begrijpen om verantwoord te kunnen handelen tegenover patiënten. Onvoldoende kennis kan ook leiden tot morele stress bij medewerkers.
Klinisch AI-geletterdheid bij leidinggevenden is voorwaarde voor verantwoord beleid.
Psychosociaal Kennis over de systemen moet de mogelijkheid geven om conflicten bij medewerkers rond AI-gebruik op te lossen.
Ethisch Als AI gebruikt wordt in evaluaties zonder transparantie en menselijk toezicht, kan dit onrechtvaardig zijn en vertrouwen schaden.
Organisatorisch Als AI-gebruik niet goed afgestemd is op hoe mensen beoordeeld en beloond worden, kan dat tot ongewenst gedrag leiden. Daarom moeten de waarden van de organisatie duidelijk terugkomen in werkafspraken, evaluaties en incentives. HR speelt hierbij een sleutelrol: zij zorgen voor de juiste opleidingen en bekijken per medewerker welke digitale vaardigheden nodig zijn om AI op een verantwoorde manier te gebruiken.
Psychosociaal Het gebruik van AI in evaluaties kan onzekerheid of wantrouwen veroorzaken bij medewerkers en vraagt daarom extra zorgvuldigheid. Of om het gewoon niet te doen.
Economisch Overmatig gebruik van AI-tools kan een impact hebben op de zorgkosten.
Ethisch Het welzijn van zorgverleners moet bewaakt worden wanneer meerdere AI-systemen tegelijk gebruikt worden.
Klinisch Meerdere AI-systemen tegelijk verhogen cognitieve belasting en interferentierisico's.
Organisatorisch De impact van één AI-tool is meestal zichtbaar, maar de combinatie van meerdere tools kan ongemerkt extra werkdruk, fouten of inefficiëntie veroorzaken. Daarom is een duidelijk overzicht van alle AI-toepassingen nodig. Sterke IT-governance, een doordachte IT-architectuur en een centraal AI-team dat coördineert, helpen om versnippering te vermijden en de samenhang te bewaken.
Psychosociaal Het sociale aspect van de job kan in het gedrang komen waardoor de job minder aantrekkelijk wordt.
Ethisch Duidelijke afspraken over tegenstrijdige AI-adviezen zijn nodig om verantwoordelijkheid te kunnen opnemen en schade voor patiënten te vermijden.
Klinisch AI mag ondersteunen, maar de mens moet altijd eindverantwoordelijk blijven. Zorgverleners moeten het laatste woord hebben en AI kunnen overrulen wanneer nodig. Als AI-systemen elkaar tegenspreken of blind gevolgd worden, komt de klinische besluitvorming en patiëntveiligheid in gevaar.
Organisatorisch Er moeten duidelijke afspraken zijn over wat te doen bij twijfel of tegenstrijdig AI-advies. Een helder AI-beleid legt vast hoe medewerkers met AI-advies omgaan en wanneer ze dit mogen of moeten overrulen. Zo blijft de mens eindverantwoordelijk, wordt professionele expertise gerespecteerd en blijft AI een hulpmiddel in plaats van een beslisser.
Organisatorisch De bedrijfscultuur is een vertaling van de algemenere missie en visie van de organisatie. De organisatiecultuur bepaalt hoe mensen met AI omgaan. Waarden moeten zichtbaar worden in concreet gedrag, anders worden innovaties niet gedragen.
Organisatorisch Zonder opleiding en andere ondersteunende faciliteiten, zoals een helpdesk, stijgt het risico op fouten en uitsluiting. Leidinggevenden en medewerkers hebben vaardigheden én ondersteuning nodig om mee te blijven in digitale verandering.
Economisch Strategische inbedding verhoogt Return on Investment van AI-implementaties.
Ethisch AI mag niet ingevoerd worden enkel omdat de technologie bestaat. Ze moet een duidelijke meerwaarde hebben voor de zorg.
Organisatorisch Losstaande AI-projecten zorgen vaak voor versnippering, dubbel werk en verspilling van middelen. AI werkt beter wanneer ze past binnen de missie, visie en strategie van de organisatie. Een duidelijke AI-visie, ingebed in breder IT-beleid, zorgt voor samenhang, betere coördinatie en meer duidelijkheid voor medewerkers over wat AI doet en waarom.
Economisch Digitale transformatie vereist een coherente visie om fragmentatie te voorkomen.
Ethisch Een duidelijke digitale strategie voorkomt dat technologie het beleid gaat sturen in plaats van omgekeerd.
Organisatorisch AI inzetten zonder duidelijke digitale strategie leidt tot technische problemen en systemen die slecht samenwerken. Technologie moet de werkprocessen ondersteunen en verbeteren, niet verstoren. Als AI goed ingebed is in een bredere digitale visie, kan ze helpen om diensten, werkprocessen en zelfs het organisatiemodel stap voor stap of grondig te vernieuwen.
Psychosociaal De inzet van AI mag niet alleen gericht zijn op kostenbesparing, maar moet ook bijdragen aan werkbare zorg en tijd voor patiëntcontact.
Economisch Door te kiezen voor een flexibele IT-architectuur vermijd je dat je vastzit aan één technologie of leverancier. Dat maakt het makkelijker en goedkoper om later aanpassingen te doen. Het is ook belangrijk om duidelijke afspraken te maken over hoe lang de AI-software wordt onderhouden, zodat je niet onverwacht zonder updates of ondersteuning valt.
Ethisch Nieuwe AI-toepassingen moeten blijven getoetst worden aan basiswaarden zoals patiëntveiligheid, rechtvaardigheid en vertrouwen in de zorg.
Klinisch AI-modellen verouderen snel; zonder updatebeleid neemt klinisch risico toe.
Organisatorisch AI evolueert snel, en zorgorganisaties werken in een voortdurend veranderende omgeving. Daarom is een wendbare manier van werken nodig, met flexibele processen die kunnen meebewegen met nieuwe technologie en verwachtingen. Ook de organisatiecultuur moet openstaan voor verandering, zodat medewerkers zich kunnen aanpassen en blijven leren.
Psychosociaal Medewerkers hebben basiskennis over AI nodig om met nieuwe toepassingen te kunnen blijven werken.
Ethisch Als je AI selecteert zonder ethische toets, loop je het risico op discriminerende of onrechtvaardige systemen. Transparantie over hoe een systeem werkt en beslissingen neemt is daarom essentieel om ethisch te blijven handelen en vertrouwen te behouden.
Juridisch Transparantie over hoe een AI-systeem tot beslissingen komt blijft belangrijk in de gezondheidszorg.
Organisatorisch Voor een veilige integratie van AI moeten systemen transparant zijn en goed kunnen samenwerken met andere toepassingen. Daarom is het belangrijk om vóór aankoop een grondige marktanalyse te doen en verschillende opties kritisch te vergelijken. Zo vermijd je technische problemen en maak je een doordachte keuze.
Economisch Vendor lock-in beperkt toekomstige flexibiliteit en verhoogt langetermijnkosten.
Ethisch Belangrijk in termen van het bewaken van de kwaliteit en zelfsturing, onafhankelijkheid
Juridisch Open standaarden en exitclausules zijn juridisch en strategisch noodzakelijk.
Organisatorisch Om niet vast te zitten aan één leverancier is het belangrijk om zelf voldoende kennis in huis op te bouwen. Door daarnaast regelmatig de markt te blijven verkennen en alternatieven te vergelijken, behoudt de organisatie haar onafhankelijkheid en onderhandelingskracht.
Ethisch Afspraken over data en modellen beschermen de privacy van patiënten en voorkomen dat belangrijke kennis verloren gaat.
Juridisch Afspraken over data, modellen en kennis moeten al vóór de start van de samenwerking duidelijk vastliggen, én ook tijdens de looptijd geregeld zijn. Zonder duidelijke afspraken over dataportering en eigenaarschap kan een organisatie waardevolle klinische kennis verliezen. Daarom moeten rechten en verantwoordelijkheden contractueel goed worden vastgelegd.
Ethisch Zonder duidelijke waarborgen kan AI belangrijke zorgwaarden, zoals autonomie en menselijkheid, onder druk zetten. Dat raakt niet alleen de relatie met de patiënt, maar ook de integriteit van de zorginstelling zelf. Daarom is het essentieel om vooraf goed na te denken over welke waarden je wil beschermen en hoe je dat concreet doet.
Organisatorisch Voor een verantwoorde inzet van AI moet een organisatie eerst duidelijk in kaart brengen welke waarden ze wil beschermen en versterken. Een kritische analyse van sterktes, zwaktes, kansen en risico’s helpt om realistische keuzes te maken. Daarbij is het belangrijk om ook de duurzaamheid van AI te blijven beoordelen, zowel ecologisch als sociaal, bijvoorbeeld op vlak van inclusie en digitale vaardigheden.
Psychosociaal AI mag de menselijke zorgrelatie niet verdringen en moet bijdragen aan voldoende tijd voor patiëntcontact.
Ethisch Expliciete randvoorwaarden voorkomen dat technologische voordelen ethische schade verbergen.
Organisatorisch AI werkt alleen goed als ze inspeelt op een echte nood en gedragen wordt door de gebruikers. Dat vraagt niet alleen technische beveiliging, maar ook duidelijke organisatorische afspraken. Medewerkers moeten het nut en gebruiksgemak ervaren, en de organisatie moet hen daarin ondersteunen. Een kleinschalige start met zichtbare succesverhalen kan helpen om vertrouwen op te bouwen en de verdere uitrol te vergemakkelijken.
Economisch Duurzame AI-implementatie vereist structurele budgettering, niet enkel projectfinanciering.
Organisatorisch AI-projecten mislukken vaak omdat organisaties onderschatten hoeveel tijd, kennis en middelen nodig zijn voor een goede implementatie. Daarom is het belangrijk om voldoende interne expertise op te bouwen. Tegelijk gebeurt innovatie meestal samen met externe partners, zoals leveranciers of kennisinstellingen, waardoor goede samenwerking essentieel is.
Organisatorisch De bestaande werkdruk heeft een grote invloed op het slagen van digitale veranderingen. In het begin kan AI zelfs extra druk veroorzaken, omdat medewerkers nog moeten leren werken met het systeem en fouten mogelijk zijn. Het is belangrijk om daar rekening mee te houden en ruimte te geven om te leren, zodat tijdelijke moeilijkheden niet leiden tot blijvende weerstand of uitval.
Psychosociaal AI kan ervoor zorgen dat de verwachtingen ten opzichte van medewerkers stijgen, wat de werkdruk verhoogt. Als AI wordt ingevoerd in een al drukke zorgomgeving zonder eerst de beschikbare capaciteit te bekijken, neemt het risico op stress en burnout toe. Daarom is het belangrijk om vooraf realistisch te plannen en de draagkracht van het team mee te nemen.
Ethisch Een grondige ethische toets vooraf helpt om schadelijke of onverantwoorde toepassingen te voorkomen. Ze maakt duidelijk wie verantwoordelijkheid draagt en hoe verantwoording wordt afgelegd. Zo bescherm je het welzijn, de veiligheid en de privacy van patiënten én de reputatie van de organisatie.
Juridisch Een ethisch comité is vereist door de EU AI Act voor hoog-risico AI in de zorg.
Economisch Een kennishub faciliteert snellere en betere evaluatie van nieuwe AI-toepassingen.
Organisatorisch Als kennis over AI verspreid zit, ontstaan losse beslissingen en dubbel werk. Door expertise te centraliseren, bijvoorbeeld in een AI Center of Excellence, kan de organisatie beter coördineren, advies geven en een duidelijk en samenhangend AI-beleid uitwerken.
Ethisch Patiëntenvertegenwoordiging in AI-besturing versterkt vertrouwen en inclusiviteit.
Organisatorisch Goed AI-beleid vraagt verschillende perspectieven. Daarom is een multidisciplinair team nodig, met bijvoorbeeld IT- en procesexperten. Wanneer zo’n AI Center of Excellence dicht bij het topmanagement staat en rechtstreeks rapporteert, kan het beter adviseren en zorgen voor evenwichtige en doordachte beslissingen.
Psychosociaal De gebruikers betrekken bij het kiezen en in gebruiknemen van nieuwe tools met oog op gedragenheid en arbeidsvreugde.
Organisatorisch Een kennisorgaan heeft weinig impact als het advies niet echt doorwerkt in het beleid. Duidelijke afspraken over hoe expertise wordt vertaald naar beslissingen versterken de AI-governance. Door het topmanagement te adviseren en AI-projecten te coördineren, kan de organisatie zorgen voor een consistent beleid en duidelijke prioriteiten.
Ethisch Duidelijke no-go zones voor AI beschermen de autonomie en waardigheid van patiënten. Ze maken zichtbaar waar de organisatie principieel grenzen trekt. Zo blijven de kernwaarden en de integriteit van de zorginstelling ook bij technologische innovatie overeind.
Organisatorisch Of je AI in bepaalde zorgsituaties principieel niet inzet, hangt af van je missie, visie en kernwaarden. Sommige beslissingen raken zo sterk aan menselijkheid, vertrouwen of autonomie dat je bewust kiest om daar geen AI te gebruiken. Ook sociale duurzaamheid speelt mee: als AI leidt tot uitsluiting of ongelijkheid door beperkte digitale vaardigheden, moet je duidelijke grenzen durven trekken.
Ethisch Niet-onderhandelbare menselijke beslissingsruimte is kern van ethisch verantwoorde zorg.
Juridisch Human-in-the-loop is juridisch vereist voor hoog-risico AI-beslissingen in de zorg.
Organisatorisch Zorgverleners moeten AI altijd kunnen overrulen, omdat zij uiteindelijk verantwoordelijk blijven voor de genomen beslissingen.
Ethisch Vooraf duidelijke afspraken maken over wie verantwoordelijk is bij fouten met AI is ethisch noodzakelijk. Het beschermt alle betrokken partijen. Dit is o.a. belangrijk in het kader van het recht van patiënten op correcte compensatie bij schade of bijkomende kosten.
Juridisch Het moet duidelijk zijn dat de zorgverlener aan het stuur blijft en het laatste woord heeft. Tegelijk moeten er afspraken zijn over wat er gebeurt als een AI-advies wordt gevolgd of juist overruled. Zonder heldere regels over aansprakelijkheid ontstaat onzekerheid, conflict en een juridisch vacuüm bij fouten.
Economisch De substitutiemythe leidt tot onderschatting van hertraining- en herstructureringskosten.
Ethisch Het voorkomen van bias is belangrijk om kwaliteitsvolle en eerlijke zorg voor alle patiënten te garanderen.
Organisatorisch AI vervangt geen medewerker volledig; taakverschuiving vereist actief herverdeelbeleid.
Organisatorisch Medewerkers hebben opleiding nodig om goed samen te werken met AI en hun expertise verder te ontwikkelen.
Ethisch Het voorkomen van bias is belangrijk om kwaliteitsvolle en eerlijke zorg voor alle patiënten te garanderen.
Klinisch Blindelings vertrouwen op AI vermindert klinische waakzaamheid en verhoogt foutrisico.
Organisatorisch Kennis van het personeel over de basisconcepten van AI-systemen zal nodig zijn om de mogelijkheden en beperkingen te kunnen inschatten. Hopelijk blijft dit niet bij al te oppervlakkige cursus.
Organisatorisch Training in kritisch AI-gebruik is essentieel om automation complacency te counteren.
Organisatorisch Opleidingen moeten medewerkers leren om AI-advies kritisch te beoordelen en fouten tijdig te herkennen.
Ethisch Het voorkomen van bias is belangrijk om kwaliteitsvolle en eerlijke zorg voor alle patiënten te garanderen.zorgverlening vrij van discriminatie, etc
Klinisch Automation bias is empirisch aangetoond in klinische settings met diagnostische AI.
Organisatorisch Expliciete waarschuwingsprotocollen bij AI-output verminderen bias-gedreven fouten.
Organisatorisch Opleidingen moeten medewerkers leren om AI-advies kritisch te beoordelen en fouten tijdig te herkennen.
Ethisch Het voorkomen van bias is belangrijk om kwaliteitsvolle en eerlijke zorg voor alle patiënten te garanderen.
Klinisch Passief ontvangen van AI-suggesties verslechtert klinische redeneervaardigheden op termijn.
Organisatorisch Opleidingen moeten actief oefenen naast AI integreren om deskilling te voorkomen.
Organisatorisch Gerichte training helpt medewerkers om hun expertise te behouden en AI als ondersteunend hulpmiddel te gebruiken.
Ethisch Duidelijke procedures rond databeheer, toestemming en transparantie zijn essentieel om de privacy van patiënten te beschermen. Ze versterken de vertrouwensband tussen zorgverlener en patiënt en vergroten ook het vertrouwen van medewerkers in het gebruik van AI binnen de organisatie.
Juridisch Procedures rond databeheer en toestemming zijn niet vrijblijvend. Ze zijn wettelijk verplicht onder de GDPR en de EU AI Act. Door hier correct aan te voldoen, vermijdt de organisatie juridische risico’s en toont ze dat ze zorgvuldig en verantwoord omgaat met persoonsgegevens.
Organisatorisch Een duidelijk en centraal AI-beleid maakt verwachtingen rond datagebruik helder en helpt medewerkers om deze regels correct toe te passen.
Ethisch Inclusie van patiënten en zorgverleners in databeleid verhoogt draagvlak en kwaliteit.
Organisatorisch Bij AI-toepassingen die over organisatiegrenzen heen werken, moeten ook extramurale partners betrokken worden bij dataprocedures. Het beleid wordt meestal uitgewerkt door IT- en procesverantwoordelijken en het topmanagement, met inspraak van andere betrokkenen. Daarna is het belangrijk dat alle medewerkers deze afspraken kennen en naleven.
Juridisch Zonder opvolgingsmechanisme verliezen dataprocedures snel hun effectiviteit.
Organisatorisch Regelmatige controles op het gebruik van AI en data zijn nodig om te voldoen aan de regels en om de kwaliteit te bewaken. Die opvolging gebeurt meestal door het IT-departement of een AI Center of Excellence, en wordt best gekoppeld aan gerichte opleidingen via HR. Zo blijft het beleid niet alleen op papier staan, maar wordt het ook in de praktijk nageleefd.
Ethisch Transparante communicatie over datagebruik bouwt vertrouwen bij alle stakeholders.
Juridisch Ongeïnformeerde medewerkers kunnen onbedoeld GDPR-schendingen veroorzaken.
Organisatorisch Medewerkers moeten geïnformeerd worden via duidelijke interne communicatie en opleidingen, bijvoorbeeld via beleidsdocumenten, campagnes en HR-trainingen.
Ethisch Ook wanneer je samenwerkt met externe AI-aanbieders, blijft de organisatie verantwoordelijk voor haar eigen waarden en normen. Door leveranciers ethisch op te volgen, bescherm je de integriteit van de instelling en voorkom je reputatieschade. Zelf de regie houden is essentieel om trouw te blijven aan je missie.
Juridisch Externe leveranciers vereisen contractuele waarborgen voor dataveiligheid en compliance.
Ethisch Open en duidelijke communicatie over AI is een teken van goed en ethisch werkgeverschap. Wanneer medewerkers begrijpen hoe en waarom AI wordt ingezet, kunnen ze kwaliteitsvolle zorg blijven bieden en vermindert de kans op morele stress of onzekerheid.
Organisatorisch Als medewerkers niet goed geïnformeerd zijn, gebruiken ze AI op een verschillende en soms onveilige manier. Daarom is duidelijke communicatie nodig, bijvoorbeeld via interne campagnes en beleidsdocumenten, én gerichte opleidingen via HR. Zo weet iedereen wat verwacht wordt en hoe AI correct gebruikt moet worden.
Psychosociaal Wanneer medewerkers betrokken worden bij beslissingen over AI, groeit het vertrouwen en het draagvlak.
Juridisch Een AI-register is aanbevolen praktijk onder de EU AI Act voor transparantie.
Organisatorisch Als medewerkers geen zicht hebben op welke AI-toepassingen gebruikt worden, kunnen ze de impact op hun werk moeilijk inschatten. Omdat AI vaak op de achtergrond werkt, hoeft niet iedereen alles te weten, maar elke medewerker moet in zijn of haar functiegerichte opleiding leren welke AI relevant is. Dat komt bovenop een algemene basisopleiding over AI.
Psychosociaal Medewerkers moeten weten welke AI-toepassingen gebruikt worden, zodat ze hierover transparant kunnen zijn tegenover patiënten.
Organisatorisch Zonder centrale coördinatie ontstaat verwarring en spreken mensen elkaar tegen over het gebruik van AI. Wanneer één duidelijke verantwoordelijke wordt aangeduid, bijvoorbeeld een AI Center of Excellence of het IT-departement, wordt het beleid consistenter en duidelijker. Zo is er heldere richting, betere afstemming en sterker toezicht op het AI-gebruik.
Psychosociaal Een duidelijke verantwoordelijke voor AI-communicatie voorkomt extra werkdruk en zorgt voor duidelijke informatie.
© 2026 Universiteit Gent – UGent Delta.
Dit werk wordt beschikbaar gesteld onder de
Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal
(CC BY-NC-SA 4.0)
licentie.
Je mag dit materiaal delen, remixen, aanpassen en erop verder bouwen, uitsluitend voor niet-commerciële doeleinden, mits correcte bronvermelding en verspreiding van afgeleide werken onder dezelfde licentievoorwaarden.
Bourgonjon, J., Annemans, L., Gesquière, N., Goffin, T., Mertes, H., Neutens, T., Van de Weghe, N., Van Biesen, W., Van Looy, A., & Verhenneman, G. (2026). Kwaliteitslabel AI voor Zorg. UGent Delta, Universiteit Gent.
Dit kwaliteitslabel is een work in progress. Diverse mensen gelinkt aan de UGent werkten eraan mee, via gesprekken, workshops of individuele bijdragen.
Lieven Annemans, Jeroen Bourgonjon, Tom Goffin, Wim Van Biesen, Griet Verhenneman.
Jeroen Bourgonjon, Lieven Annemans, Natacha Gesquière, Tom Goffin, Heidi Mertes, Tom Neutens, Nico Van de Weghe, Wim Van Biesen, Amy Van Looy, Griet Verhenneman.
Laetitia Aerts, Lieven Annemans, Sofie Bekaert, Jeroen Bourgonjon, Femke De Backere, Thomas Demeester, Joni Dambre, Natacha Gesquière, Tom Goffin, Veronique Hoste, Teodora Lalova-Spinks, Erik Mannens, Heidi Mertes, Tom Neutens, Paloma Rabaey, Sigrid Sterckx, Sylvie Tack, Nico Van de Weghe, Wim Van Biesen, Amy Van Looy, Marthe Van Overbeke, Griet Verhenneman.