Dossier / bijgewerkt: 13 juni 2024
Artificial Intelligence (AI) wordt steeds breder ingezet in de zorg, bijvoorbeeld bij het analyseren van röntgenfoto’s, het opstellen van patiëntenbrieven, en als ondersteuning bij triage.
AI in de zorg vraagt om de juiste ethische en juridische randvoorwaarden. Bijvoorbeeld omdat AI gepaard gaat met de verzameling en verwerking van zeer grote datasets, die (deels) onder het beroepsgeheim kunnen vallen. Maar ook omdat er veel verschillende actoren betrokken zijn bij de ontwikkeling, toetsing en toepassing van AI, en het in de praktijk niet altijd duidelijk is wie waar precies verantwoordelijk voor is. De KNMG buigt zich met een nieuwe projectgroep over de behoefte aan nieuwe handvatten voor artsen om AI op een verantwoorde manier in te zetten.
Steeds vaker zie ik dat collega-artsen de AI-chatbot ChatGPT inzetten om hen te assisteren bij administratieve taken. Zo gebruiken zij volgens mij ChatGPT om dossiers samen te vatten, om medische informatie beter leesbaar te maken voor patiënten, en om ontslagbrieven op te stellen. Mag ik – arts werkzaam in een zorginstelling - ChatGPT ook gebruiken ter ondersteuning van mijn administratieve taken? En waar moet ik dan allemaal rekening mee houden?
Of je als arts ChatGPT in je werk mag gebruiken is in eerste plaats afhankelijk van de regels en richtlijnen die jouw zorginstelling daarvoor hanteert. ChatGPT kan artsen in bepaalde gevallen administratieve ondersteuning bieden. Wel is grote voorzichtigheid geboden. De uiteindelijke verantwoordelijkheid voor zowel het gebruik van ChatGPT, evenals de gevolgen daarvan, liggen bij de gebruiker, dus bij jou.
Naast ChatGPT wordt er ook vaker gebruik gemaakt van het taalmodel achter ChatGPT, applicaties die lijken op ChatGPT, en toepassingen die draaien op een gesloten cloud-omgeving. De in dit praktijkdilemma genoemde aandachtspunten zijn specifiek toegespitst op het gebruik van ChatGPT door artsen en vormen geen uitputtende lijst.
Let in ieder geval op het volgende:
Beleid en richtlijnen
Volg lokaal beleid en richtlijnen
Het is belangrijk om duidelijke afspraken te maken over de inzet van ChatGPT en andere AI-chatbots. Sommige ziekenhuizen en praktijken hebben dat al gedaan, bijvoorbeeld in de vorm van interne richtlijnen voor het verantwoord gebruiken van ChatGPT of generatieve AI. Deze beschrijven bijvoorbeeld voor welke soort taken je ChatGPT wel en niet mag gebruiken en waar je dan op moet letten. Bijvoorbeeld wel voor het samenvatten van een algemene patiëntenfolder in eenvoudige taal maar niet voor het samenvatten van patiëntenbrieven. Veelal zijn die richtlijnen gebaseerd op bestaand gegevensbeschermings- en informatiebeveiligingsbeleid. Zijn zulke afspraken jou niet bekend, of zijn deze binnen jouw organisatie nog niet opgesteld, vraag er dan om.
De wet- en regelgeving omtrent AI is aldoor in ontwikkeling, waardoor regels omtrent het gebruik van AI in de zorg door de tijd heen kunnen veranderen. Volg dus altijd het actuele beleid dat geldt binnen jouw zorginstelling.
Beroepsgeheim
Deel nooit persoonsgegevens of bedrijfsgevoelige informatie met ChatGPT.
OpenAI, het bedrijf achter ChatGPT, slaat veel gegevens op, inclusief gestelde vragen en verkregen antwoorden. OpenAI gebruikt die gegevens bijvoorbeeld om hun taalmodel te trainen. Hoewel je kunt aangeven dat jouw gegevens daar niet voor gebruikt mogen worden, sluit dit niet uit dat er gegevens op verkeerde plekken terecht kunnen komen. Daardoor kun je niet alleen een datalek veroorzaken, maar ook het beroepsgeheim schenden dat je jegens je patiënten hebt. Op dit moment is nog veel onbekend over de privacyrisico’s van ChatGPT. Deel daarom nooit gevoelige persoonsgegevens, en ook geen bedrijfsgevoelige gegevens (zoals financiële gegevens).
Tekortkomingen technologie
Wees je bewust van de tekortkomingen van ChatGPT en controleer je werk.
ChatGPT maakt fouten. Je moet output daarom zorgvuldig beoordelen en controleren. Het is als arts belangrijk om je bewust te zijn van de beperkingen en nadelen van chatbots zoals ChatGPT:
Verantwoordelijkheid
Jij blijft verantwoordelijk
Artsen zijn, en blijven, verantwoordelijk in geval van een fout die voortkomt uit het gebruik van ChatGPT. De arts houdt uiteraard ook eindverantwoordelijkheid voor de behandeling. Daarbij is het belangrijk om het vertrouwen tussen arts en patiënt te borgen. Het is belangrijk om door ChatGPT gegenereerde uitkomsten goed te controleren en om transparant te zijn over het feit dat je AI hebt gebruikt.
Milieu-impact
Wees je bewust van de milieu-impact van het gebruik van ChatGPT
Hoewel ChatGPT een handig hulpmiddel kan zijn vergt het gebruik ervan vele malen meer stroom dan een vraag aan bijvoorbeeld Google Search. Het is daarom belangrijk om goed af te wegen of het gebruik van ChatGPT daadwerkelijk meerwaarde heeft voor de ondersteuning van administratieve taken, of dat een meer energiezuinige zoekmachine of oplossing wellicht ook volstaat.