Zorgen om AI in de zorg? Moet je je hier niet druk om maken, of zijn de zorgen terecht? Wij leggen het je uit! AI speelt een steeds grotere rol in de zorg. Niet alleen bij diagnoses, maar ook bij het verwerken van patiëntgegevens en gesprekken tussen artsen, andere zorgprofessionals en patiënten. Het levert voordelen op, maar het brengt ook nieuwe privacyvraagstukken met zich mee. Want wie kan die data zien? Wat gebeurt er als de informatie op straat komt te liggen? In dit artikel lees je hoe de zorg omgaat met AI en privacy, en waar de echte risico’s zitten.
Is AI in de zorg wel veilig?
AI in de zorg is in veel gevallen goed beveiligd, maar zeker niet zonder risico’s. De informatie wordt getranscribeerd en versleuteld binnen het programma dat artsen en andere zorgprofessionals gebruiken. Dat is een nuttige manier om AI te gebruiken. Het wordt vaak gekoppeld aan het Elektronisch Patiënten Dossier (EPD) en daar zitten strenge veiligheidseisen aan. Toch blijft er altijd een kans op een hack.
Wat doet AI precies in de zorg?
Artsen en andere zorgprofessionals gebruiken AI niet alleen om minder tijd kwijt te zijn aan transcripties, maar ook om patronen te herkennen in grote hoeveelheden data. Denk bijvoorbeeld bij de beoordeling van röntgenfoto’s, om patiëntendossiers door te spitten of om meetgegevens van apparaten te beoordelen. Een arts heeft een paar minuten nodig om iets te beoordelen, maar AI kan dat binnen seconden. Daardoor kunnen duizenden vergelijkingen tegelijk worden uitgevoerd.
Op die manier helpt AI bijvoorbeeld bij het vroeg opsporen van ziektes zoals kanker en hartproblemen. Ook gebruiken zorgprofessionals kunstmatige intelligentie om behandelplannen te verbeteren. Het systeem leert van eerdere patiënten en voorspelt snel welke aanpak het beste werkt. Gaat de zorgverlener blind mee in wat AI zegt? Uiteraard niet. AI mag nog geen zelfstandige beslissingen nemen. Het is alleen bedoeld om artsen te ondersteunen. Uiteindelijk bepaalt de patiënt nog altijd zelf hoe de behandeling wordt uitgevoerd.
Hoe zit het met medische privacy bij AI in de zorg?
Om goed te werken, heeft AI veel data nodig. Vanzelfsprekend gaat dat in de zorg vaak om gevoelige informatie. Het is logisch dat je je zorgen maakt dat je medische geschiedenis, medicijngebruik, testresultaten en genetische gegevens in verkeerde handen terechtkomt. Daarom is het altijd goed om jezelf af te vragen: ‘Welke patiëntgegevens slaat AI op, en wie gebruikt deze gegevens?’
In het geval van apps, is dat vaak onduidelijk. Zeker als je gebruik maakt van wearables zoals smartwatches, weet je bijna nooit wie de ontvanger is. In veel gevallen is het onduidelijk waar de data precies naartoe gaat en welke partijen erbij betrokken zijn. Daar zitten vaak ook de grootste privacyrisico’s.

Wie heeft toegang tot mijn gegevens in de zorg?
Ziekenhuizen, artsen en soms externe partijen (zoals softwareleveranciers die AI-systemen ontwikkelen en onderhouden) zijn de enige partijen die toegang hebben tot zorgdata. Kunnen ze zomaar alles inzien? Zeker niet. Er worden technische maatregelen genomen, zoals versleuteling en beperkte toegang.
Toch is het goed om je te bedenken dat jouw data niet alleen binnen één organisatie blijft. Helaas is ook nu transparantie over databeveiliging in de zorg nog niet overal even goed geregeld.
Wat als een patiëntendossier wordt gehackt?
Het grootste risico is niet het gebruik van AI. Het grootste risico is hoe data wordt opgeslagen en gebruikt. Hoe meer gegevens er zijn, hoe interessanter ze zijn voor hackers. Er is bijna niets persoonlijkers dan deze gegevens, en daarmee ideaal chantagemateriaal.
De hack bij Odido heeft ons al laten zien wat er gebeurt als persoonlijke gegevens bij hackers belanden. Je ziet frauduleuze verzoeken, pogingen tot phishing en spam. Vergeleken bij medische gegevens, is de hack bij Odido nog maar een peulenschil.
In 2025 werd het Bevolkingsonderzoek Nederland gehackt. Gegevens van ruim 485.000 deelnemers aan het bevolkingsonderzoek naar baarmoederhalskanker werden door criminele hackers ontvreemd. Criminelen kunnen het gebruiken om mensen af te persen. In de praktijk gebruiken ze het vooral om achter namen, adressen, geboortedata en burgerservicenummers te komen. Met deze data proberen criminelen je gericht op te lichten.
Het goede nieuws: met alleen deze informatie kunnen criminelen geen nieuwe identiteitsdocumenten aanvragen. Ook leningen of telefoonabonnementen afsluiten op jouw naam is er niet mee mogelijk. Daarvoor is altijd een extra identificatiecheck nodig. Denk bijvoorbeeld aan een koppeling met iDIN of inloggen met DigiD.
Zijn mijn medische gegevens echt anoniem?
Je hoort vaak dat medische apps gegevens ‘anoniem’ opslaan. In de theorie zou dat betekenen dat jouw naam en andere herkenbare informatie niet worden opgeslagen. In de praktijk zit dat nog weleens anders.
Met genoeg databronnen is het soms gewoon mogelijk om gegevens naar een persoon te herleiden. Daarvoor gebruiken hackers en oplichters combinaties van leeftijd, postcode en medische geschiedenis. Het is een van de belangrijkste redenen waarom privacy-experts heel kritisch kijken naar AI in de zorg.
Welke rechten heb ik bij gebruik van AI in de zorg?
De Europese wet AVG (Algemene Verordening Gegevensbescherming) stelt strenge eisen aan het gebruik van persoonsgegevens. Medische data valt onder de zwaarste categorie. Zorginstellingen moeten goed kunnen uitleggen waarom ze data gebruiken en hoe ze die beschermen.
Vaak geldt een extra laag aan regels. Zo mogen gegevens alleen gedeeld worden met de uitdrukkelijke toestemming van de patiënt. Ook moet ieder systeem zo ontworpen zijn, dat privacy standaard het hoogste goed is.

Waarom AI blijft groeien in de zorg
De voordelen van AI in de zorg zijn te groot om te negeren. Zoals bekend kampt de zorg in Nederland met enorme personeelstekorten. Er is te weinig verplegend personeel, de wachttijden bij specialisten zijn lang en het kan lang duren voordat een diagnose wordt gesteld.
Je kunt ervan uit gaan dat AI in de zorg niet meer verdwijnt. Integendeel: artsen en andere zorgprofessionals gaan het veel vaker inzetten. AI in de zorg is dan ook niet te stoppen. De uitdaging is om het goed te regelen. Er moeten duidelijke regels komen over transparantie, over wat wel en niet opgeslagen mag worden, hoe de privacy wordt beschermd en over wie bij de data kan. Alleen op die manier kan AI een veilige rol spelen in de zorg.
Is AI in de zorg gevaarlijk voor je privacy?
AI in de zorg is in de meeste gevallen niet gevaarlijk voor je privacy. Toch blijft er altijd een kleine kans dat er data uitlekt. In Canada heeft een AI-bot een artsenoverleg opgenomen en patiëntgegevens naar huidige en voormalige ziekenhuismedewerkers gestuurd. Zo kregen artsen die niet meer bij het ziekenhuis werkten, data in handen die zij nooit hadden mogen hebben.
In Europa en Nederland gelden er hele strenge privacy-eisen. Stel je voor dat er data lekt, dan moet dat onmiddellijk worden gemeld bij de Autoriteit Persoonsgegevens. Deze kan dan onderzoek doen en zelfs een boete opleggen. Dat geeft een signaal: voorkomen is beter dan genezen.