
Wat komt er kijken bij verantwoorde toepassing van AI in de zorg?
AI ontwikkelt zich razendsnel en opent steeds meer mogelijkheden in de ondersteuning van zorgverleners en cliënten. Waar de inzet van AI bedoeld is als slimme ondersteuning, kan het echter ook onbedoelde neveneffecten met zich meebrengen, bijvoorbeeld op het gebied van privacy, menselijke relaties, professionele handelingsvrijheid en werkplezier. Verantwoorde toepassing van AI vraagt om voortdurende aandacht voor zulke aspecten, gedurende het hele traject van ontwerp, configuratie en implementatie.
Door Dr. Dirk (D.R.M.) Lukkien, senior onderzoeker digitale zorg bij Vilans
Kunstmatige intelligentie (AI) wordt wereldwijd gezien als een transformatieve kracht, ook in de zorg. AI is een parapluterm voor technologieën die op basis van data en beslisregels patronen herkennen en output genereren, zoals voorspellingen of aanbevelingen, die menselijke besluitvorming en taken ondersteunen of overnemen. In de zorg voor ouderen wordt volop geëxperimenteerd met diverse AI-toepassingen, zoals slimme camera’s en sensoren voor zorg op afstand, spraakgestuurd rapporteren, en AI-chatbots als virtuele assistenten.
De belofte is duidelijk: betere zorg met minder werkdruk. Maar de opkomst van AI roept ook fundamentele vragen op over wat goede zorg is en welke rol technologie daarin moet spelen. AI kan grote impact hebben op cliënten en patiënten, zorgverleners en de samenleving, positief én negatief. Daarom is een verantwoorde aanpak nodig die waarden, behoeften, kansen en risico’s zorgvuldig afweegt.
In mijn proefschrift onderzocht ik hoe verantwoorde AI-implementatie praktisch wordt vormgegeven in de langdurige zorg voor ouderen. Terwijl de inzichten voortkomen uit onderzoek gericht op de langdurige zorg, kunnen ze ook inspiratie bieden voor andere zorgsectoren. In dit artikel deel ik drie kernaanbevelingen ten aanzien van verantwoorde AI-implementatie voor implementatieprofessionals: (1) proactief balanceren tussen kansen en risico’s, (2) verantwoorde AI benaderen als een samenspel tussen ontwerp, configuratie en dagelijks gebruik, en (3) investeren in bruggenbouwers.
Aanbeveling 1: Proactief balanceren tussen kansen en risico’s
De eerste aanbeveling is om continu, van vroege fasen van ontwerp tot dagelijks gebruik, aandacht te besteden aan, en afwegingen te maken tussen kansen en risico’s van AI-toepassingen. In mijn proefschrift laat ik zien dat dit nog niet vanzelfsprekend is binnen AI-innovatie in de langdurige zorg voor ouderen.
In verschillende innovatieprojecten zag ik dat betrokkenen zich vaak primair richten op de kansen van AI: welke problemen kunnen we met technologie oplossen, en hoe betrekken we gebruikers bij deze oplossingen? Risico’s en ethische vraagstukken krijgen, zeker in vroege ontwikkelfasen, een stuk minder aandacht. Als ze al aan bod komen, beperkt de discussie zich meestal tot privacy. Diepgaandere reflectie op risico’s van AI vindt vooral plaats buiten de dagelijkse innovatiepraktijk, bijvoorbeeld in de academische wereld, maatschappelijke organisaties en journalistiek.
Kansen en risico’s van AI zijn echter niet los van elkaar te beschouwen, maar vormen twee kanten van dezelfde medaille. Afhankelijk van hoe AI-technologieën worden ontworpen, ingebed en toegepast in de praktijk, kunnen voordelen onbedoeld omslaan in nadelen.
Neem AI-gedreven monitoring en zorg op afstand. Dit biedt kansen voor vroegsignalering en preventie. Tegelijk schuilt hierin het risico dat zorg te veel gaat leunen op AI-signalen, waardoor subtiele menselijke waarnemingen – een blik, een intuïtie, een kleine gedragsverandering – en professionele vaardigheden op de achtergrond raken en AI leidend wordt in plaats van ondersteunend.
Een ander risico is overdiagnose. Een iets langzamere loop of een afwijkend leefpatroon van een oudere persoon kan als risicovol worden geïnterpreteerd, terwijl dit ook een normaal onderdeel van ouder worden kan zijn. In zulke gevallen draagt AI bij aan de medicalisering van ouderdom, met mogelijke gevolgen voor de autonomie en waardigheid van ouderen én voor de werkdruk van zorgverleners.
Kansen en risico’s als twee kanten van dezelfde medaille
Dergelijke spanningen keren terug in uiteenlopende AI-toepassingen in de zorg. Spraakgestuurd rapporteren kan de verslaglegging versnellen en verbeteren, maar ook de cognitieve belasting verhogen en de kwaliteit van rapportages onder druk zetten doordat er minder ‘denktijd’ is dan bij typen. Zorgrobots en chatbots kunnen fungeren als laagdrempelig maatje of eerste aanspreekpunt, maar ook leiden tot verschraling van menselijke nabijheid en zorgrelaties. Beslissingsondersteunende systemen kunnen professionals meer grip en consistentie bieden, maar tegelijkertijd hun professionele handelingsvrijheid en werkplezier ondermijnen wanneer zij te sturend worden ingezet.
Concrete stappen voor verantwoorde afwegingen
Verantwoord innoveren betekent daarom proactief en doorlopend balanceren tussen kansen en risico’s. Niet zozeer AI als goed of slecht bestempelen, maar per toepassing en per zorgcontext zorgvuldig bepalen of en hoe de voordelen opwegen tegen de neveneffecten.
In de praktijk kun je daar invulling aan geven door:
- Expliciet te bepalen welke data nodig zijn als input voor AI-toepassingen, en welke juist niet, bijvoorbeeld omdat zij leiden tot overmatige privacy-inbreuk, informatie-overload of overdiagnose.
- Bewust te kiezen hoe proactief AI met gebruikers mag meedenken, zodat ondersteuning wordt geboden zonder menselijke besluitvorming over te nemen of te verdringen.
- Stapsgewijs nieuwe AI-functies in te voeren, in lijn met het vertrouwen en de ervaring van gebruikers. Hierbij is ruimte om functies aan te passen of terug te schalen wanneer ongewenste effecten optreden.
- Keuzemogelijkheden en instelbaarheid in te bouwen, zodat gebruikers zelf (mede) kunnen bepalen hoeveel informatie, signalen of beslissingsondersteuning zij ontvangen.
- Bepaalde risico’s expliciet te accepteren wanneer de verwachte voordelen zwaarder wegen, en deze keuzes regelmatig heroverwegen op basis van nieuwe inzichten en ervaringen.
Dit doorlopende leerproces vraagt om samenwerking tussen verschillende belanghebbenden (ontwikkelaars, zorgbestuurders, innovatiemanagers, zorgverleners, cliënten, etc.) en om structurele ruimte om bij te sturen op basis van praktijkervaring. Dat brengt me bij de tweede aanbeveling.

Aanbeveling 2: Verantwoord ontwerpen, configureren en toepassen
De tweede aanbeveling is om verantwoorde implementatie van AI te benaderen als een samenspel tussen ontwerp, configuratie en dagelijks gebruik, in nauwe samenwerking met gebruikers. Verantwoorde inzet van AI is nooit alleen een kwestie van slim en ethisch ontwerp. Het gaat om het geheel: hoe een systeem is ontworpen, hoe het daarna wordt ingesteld en ingebed in de praktijk, en hoe mensen het dagelijks gebruiken. Pas in dat samenspel ontstaat verantwoordelijkheid.
In discussies over ‘verantwoorde AI’ ligt de nadruk vaak op ethics by design: het vertalen van waarden zoals privacy, eerlijkheid, transparantie en menselijke autonomie naar ontwerpkeuzes zoals dataminimalisatie, representatieve trainingsdata, uitlegbare modellen of ingebouwde mogelijkheden voor menselijk ingrijpen. Zulke ontwerpkeuzes zijn belangrijk, omdat ze bepalen wat een systeem wel en niet kan en daarmee de basis vormen voor verantwoord gebruik.
Opvallend is dit opzicht is dat veel generatieve AI-chatbots, zoals ChatGPT, juist laten zien hoe ontwerp kan bijdragen aan onverantwoord AI-gebruik: hun zelfverzekerde, empathische formuleringen wekken al snel een indruk van autoriteit en objectiviteit, terwijl onzekerheden en alternatieve perspectieven naar de achtergrond verdwijnen. Daardoor kunnen gebruikers geneigd zijn de betrouwbaarheid van hun antwoorden te overschatten.
Maar zelfs goed ontwerp is geen garantie voor verantwoord gebruik. Labels als ‘privacy by design’ of ‘fair by design’ kunnen de indruk wekken dat alles goed zit zodra de technologie verantwoord is gebouwd. In werkelijkheid komt verantwoord gebruik pas tot stand wanneer ontwerp, inbedding en dagelijks gebruik goed op elkaar zijn afgestemd. Dit leg ik graag uit aan de hand van het begrip ‘configuratie’.
Verschillende gebruikers, verschillende configuraties
AI-toepassingen zijn méér dan technologie: het zijn socio-technische configuraties. Dat wil zeggen: combinatie van technologische elementen (zoals data, algoritmen en software) én niet-technologische elementen (zoals werkprocessen, gebruikers en vaardigheden). Iedere zorgcontext waarin AI wordt toegepast vormt zo een unieke configuratie.
Variaties in de waarden en behoeften van verschillende gebruikers maken dat verantwoorde AI-innovatie altijd contextafhankelijk is. Een aanpak die binnen de ene zorgorganisatie of bij de ene cliënt of zorgverlener goed werkt, kan elders juist frictie opleveren. Waar de ene oudere de veiligheid die AI-gedreven monitoring biedt belangrijker vindt dan privacy, kan dat voor een andere oudere precies andersom zijn. En wat voor de ene zorgverlener behulpzaam advies is, voelt voor de ander als betutteling of als aantasting van professioneel oordeel. Verantwoorde AI vraagt daarom om maatwerk* — niet alleen in ontwerp, maar vooral in configuratie en gebruik.
* Dat betekent niet dat elke AI‑toepassing uniek moet zijn: je kunt veel technologische en niet-technologische elementen delen met anderen, en alleen de instellingen aanpassen aan de eigen doelgroep. In die zin kunnen maatwerk en standaardisatie (mits op het niveau van de bouwstenen van AI-toepassingen) samengaan.
Verantwoord configureren
Voor een belangrijk deel kan maatwerk dus worden gezocht in de hoe AI wordt ‘geconfigureerd’ in de praktijk. Neem bijvoorbeeld een AI‑systeem dat het valrisico van ouderen monitort. Het ontwerp kan technisch uitstekend in orde zijn, maar ook over de volgende aspecten moeten doordachte keuzes worden gemaakt om ervoor te zorgen dat het systeem functioneert in de praktijk:
- Welke data worden (niet) verzameld? De keuze voor smalle of brede dataverzameling bepaalt de balans tussen privacy en nauwkeurigheid (en veiligheid). Hierin kunnen de behoeften van individuele cliënten verschillen.
- Bij welke drempelwaarden en trends in data worden meldingen gegeneerd? Een revalidatieafdeling kiest misschien voor strenge drempels; een somatische afdeling wil alarmmoeheid voorkomen.
- Wie krijgt toegang tot data en AI-uitkomsten, en wanneer? Toegangsrechten bepalen wie welk risico‑signaal ziet en hoe privacy wordt beschermd.
- Hoe worden uitkomsten gepresenteerd en uitgelegd? De vorm van presentatie – bijvoorbeeld kleurcodes of juist ook korte toelichtingen bij meldingen – bepaalt hoe begrijpelijk en hoe (snel) bruikbaar het advies is voor zorgverleners.
- Welke training hebben gebruikers nodig om hier goed mee om te gaan? Training en instructies dienen bijvoorbeeld te worden afgestemd op gebruikers die óf meer vertrouwen moeten leren opbouwen óf juist kritischer moeten leren omgaan met AI‑adviezen.
Omdat de behoeften en waarden van gebruikers en andere betrokkenen over de tijd kunnen veranderen, betekent verantwoord configureren ook regelmatig herijken, zowel technisch als organisatorisch: andere data verzamelen, instellingen aanpassen, werkafspraken bijstellen, verantwoordelijkheden verduidelijken en trainingen herhalen of aanpassen.
Aanbeveling 3: Investeer in bruggenbouwers
Tot slot betoog ik in mijn proefschrift dat gebruikersintermediairs een sleutelrol kunnen spelen bij verantwoorde implementatie van AI. Zij kunnen helpen kansen en risico’s zorgvuldig, en met oog voor de context, af te wegen en ontwikkelaars en gebruikers ondersteunen bij het verantwoord vormgeven, inbedden en toepassen van AI in de praktijk. Gebruikersintermediairs kunnen bijvoorbeeld zorgverleners zijn met extra technologische en ethische expertise. Zij kunnen ten eerste met ontwikkelaars meedenken over behoeften uit de praktijk en de vertaalslag naar techniek. Ten tweede kunnen ze collega’s ondersteunen bij het configureren van AI in de praktijk en signaleren wanneer eerdere keuzes niet meer passen. Ten derde kunnen ze collega’s ondersteunen bij hun dagelijks gebruik van AI, door samen met hen te reflecteren op hoe AI-uitkomsten worden geïnterpreteerd, toegepast, genegeerd of juist te serieus genomen. Hoewel blijvende investering in AI-geletterdheid onder alle zorgverleners nodig is, kan niet van iedere zorgverlener (en andere typen gebruikers, zoals mantelzorgers en cliënten) dezelfde mate van verantwoordelijkheid worden verwacht. Kritische en vooroplopende zorgverleners kunnen hierin fungeren als brug tussen techniek en praktijk.