Eind november 2022 werd de AI chatbot ChatGPT gelanceerd. Direct daarna deelden mensen overal ter wereld hun eerste ervaringen met die chatbot via social media en online forums. Zo ook de Australische arts Prithvi Santana. Deze arts sloeg steil achterover toen hij een genuanceerde anamnese van een patiënt invoerde en seconden later een helder onderbouwde diagnose terugkreeg, die sterk overeenkwam met de diagnose die hij zelf gesteld had. Hij legde zijn ervaring vast in een TikTok video die het hele internet over ging. ‘Dit gaat de rol van artsen in de zorg veranderen,’ sloot hij zijn video af. En hoewel de meningen verdeeld zijn over hoe serieus we dit voorbeeld nu al moeten nemen, is deze conclusie terecht.
De volgende, nog veel geavanceerder versie van ChatGPT is inmiddels al aangekondigd. Maar wat houdt deze en andere AI-technologie eigenlijk in? AI, kort voor Artificial Intelligence, of kunstmatige intelligentie, heeft betrekking op systemen die menselijke intelligentie nabootsen om taken uit te kunnen voeren. Meer geavanceerde AI-systemen zijn zelflerend en kunnen zichzelf verbeteren op basis van informatie die ze gaandeweg verzamelen.
Het bovengenoemde ChatGPT is hier een voorbeeld van. Dit is een toepassing die gebaseerd is op een groot taalmodel.1 Op basis van enorme hoeveelheden tekst waarmee het systeem getraind is kan het op een bijna menselijke manier antwoord geven op vragen. Daar wordt het door de feedback die het verzamelt ook steeds beter in. Zo kan het bijvoorbeeld complexe kennisvragen en vervolgvragen beantwoorden, maar ook een essay schrijven over een gegeven onderwerp.2 Dergelijke toepassingen zijn echter (nog) niet in staat om zelf te interpreteren, of om bijvoorbeeld een mening te geven. En hoewel het in bovenstaand voorbeeld toevallig goed ging, zijn er ook vele gevallen bekend waarin de uitkomst niet klopte. Menselijke inschatting blijft nog nodig.
Het belang van menselijke inschatting wordt vaak genoemd, zeker bij AI-toepassingen in de zorg. En dat is logisch. Hoe geavanceerder dit soort technologie wordt, hoe meer kansen we zien om de zorg hiermee te innoveren. Daardoor zullen artsen en andere zorgprofessionals in toenemende mate te maken krijgen met nieuwe, technologische actoren. AI-technologie als medebeslisser, adviseur, en zelfs mede-uitvoerder van behandelingen. Dit roept praktische, juridische, maar vooral ook veel ethische vragen op, bijvoorbeeld over de professionele autonomie van artsen. Is er straks nog wel ruimte voor jouw inschatting, die gebaseerd is op jaren aan opgedane kennis en praktijkervaring? Wat als jouw inschatting nou afwijkt van die van een AI-systeem? En: Wie is er uiteindelijk verantwoordelijk?
Vaak lees je: ‘Uiteindelijk houdt de arts de verantwoordelijkheid’ of ‘Het laatste woord van de arts spreekt vanzelf’. Zo ook in een artikel van Medisch Contact over een AI-toepassing in het Amsterdam UMC. In dat ziekenhuis kunnen artsen AI inzetten om te bepalen of een patiënt in aanmerking komt voor ontslag van de IC. Het daarvoor ontwikkelde systeem wordt doorlopend getraind op basis van de gepseudonimiseerde patiëntgegevens van duizenden patiënten die op de IC worden behandeld. Er lopen onderzoeken naar hoe inschattingen van artsen zich verhouden tot de aanbevelingen van het AI-systeem. Volgens het artikel is het in het Amsterdam UMC vooralsnog eerst de arts die een inschatting maakt, en dan het systeem, als een second opinion.
Toch moeten we ook alvast verder vooruitkijken en ons buigen over het onderliggende verantwoordelijkheidsvraagstuk. Want wat als een AI-systeem straks aantoonbaar en systematisch beter is in het maken van de inschatting van wanneer een patiënt ontslagen kan worden? Of bijvoorbeeld beter in het stellen van een diagnose? Is het laatste woord van de arts dan ook nog vanzelfsprekend? En in hoeverre moeten we dan nog vasthouden aan de verantwoordelijkheid van arts?
Daar komt nog een andere fundamentele vraag bij kijken. Want wanneer we zeggen: “De arts blijft (eind)verantwoordelijk,” wat bedoelen we dan precies? Het zal steeds belangrijker worden om te duiden wat die verantwoordelijkheid inhoudt, en waarom verschillende taken en verantwoordelijkheden bij de arts of misschien juist wel bij een ander liggen. Het succes van AI is namelijk afhankelijk van factoren die voor een groot deel buiten de directe invloed van individuele artsen liggen. Bijvoorbeeld van hoe systemen getraind worden, op basis van welke algoritmen de systemen leren, en welke datasets daarvoor gebruikt worden. Verschillende stakeholders, van zowel binnen als buiten de zorg, werken hierin samen.
Op de site arts2040.nl schetst de KNMG een beeld van de rollen van de arts in 2040. In die visie zien we dat de arts in de toekomst een ‘menselijke interface’ zal zijn die de link vormt tussen technologie en patiënt. Die interpreteert wat er uit de data naar voren komt en een vertaalslag maakt naar de patiënt. Maar die ook een bekende en vertrouwde adviseur is voor de patiënt, die de patiënt kan begeleiden, coachen en behandelen. De arts lijkt dus niet overbodig te worden.
Om deze toekomstige rol van de arts verder vorm te geven is het belangrijk om met elkaar in gesprek te gaan over welke taken en verantwoordelijkheden we bij deze rol vinden passen en welke ethische vragen we elkaar daarbij moeten stellen. De razendsnelle technologische ontwikkelingen, zoals bovengenoemde voorbeelden laten zien, maken dat hier haast bij is. Het is zaak dat we hier als beroepsverenigingen, in samenwerking met de andere stakeholders, nu werk van maken.
Iris Loosman, MA, beleidsadviseur ethiek, KNMG
[1] Vergelijkbare toepassingen zijn bijvoorbeeld Med-PaLM en PubMed GPT, beide specifiek ontwikkeld voor de zorg.
[2] Zie ook de berichtgeving van NOS op 16 januari 2023 over het gebruik van ChatGPT door scholieren bij het maken van huiswerkopdrachten.
Ben je arts en wil je reageren op dit artikel, stuur dan een mail naar communicatie@fed.knmg.nl