De verwachtingen omtrent AI in de zorg zijn hooggespannen. Na een explosief aantal positief gestemde nieuwsberichten over razendsnelle ontwikkelingen op het gebied van AI lijkt de stemming nu bij sommigen om te slaan in vrees. Die vrees wordt gevoed door bijvoorbeeld de open brief over ChatGPT en andere scenario’s waarin de mens de technologie niet meer kan bijbenen. Hypes en angst kunnen de vragen die we elkaar juist nu moeten stellen verbloemen, zo wordt gesteld in een recent opinieartikel in NRC. Niet voor niets is demystificatie een centraal thema in het WRR-rapport ‘Opgave AI’ uit 2021.
Alleen met realistische verwachtingen en onder duidelijke normatieve voorwaarden kunnen we AI gebruiken op een manier die de belangen van artsen en patiënten dient. Dat vraagt een onderzoekende, kritische houding van artsen.
Vaak gehoord is de vrees dat AI de zorg minder menselijk zal maken. Bijvoorbeeld doordat apps op basis van AI diagnosen stellen of doordat de focus op data afstand creëert tussen arts en patiënt. Het populaire boek Deep Medicine, geschreven door Amerikaanse cardioloog Eric Topol in 2019, beschrijft een hoopvol tegengeluid. Volgens Topol gaat de aandacht omtrent AI in de zorg nu vooral vaak uit naar het vergroten van efficiëntie en productiviteit. We gaan daarmee echter voorbij aan een veel belangrijker potentie: AI kan de zorg juist weer menselijker maken. Want zo stelt Topol, AI ‘schenkt’ de arts tijd: door bepaalde taken over te nemen blijft er meer tijd over voor patiëntencontact, luisteren en empathie. AI kan de arts-patiënt relatie verdiepen en behandeling persoonlijker en accurater maken. Om de juiste potentie van AI te bereiken, moeten we ons daar wel actief voor in zetten. Dat artsen AI begrijpen is essentieel, zegt Topol.
Het optimisme van Topol is op nogal wat scepsis gestuit, want hoe dan ook zal AI zeker niet vanzelf de zorg menselijker, dieper en accurater maken. Laten we daarom het heft in eigen hand nemen. Wat heb je als arts nodig om erop te kunnen vertrouwen dat AI de kans op goede zorg voor patiënten vergroot?
AI begrijpen
Allereerst moet je als arts kunnen begrijpen wat het AI-systeem dat in jouw zorgpraktijk wordt ingezet allemaal kan (wat zijn de competenties van het AI-systeem?) en hoe het werkt (eigenlijk is dit vergelijkbaar met het gebruik van andere IT-systemen zoals EPD’s). Dat vraagt aan de kant van de arts om basale scholing in wat AI doet en kan en aan de kant van de AI om maximale helderheid over de manier waarop het systeem tot oordelen komt (‘explainable AI’). We zeggen ‘maximaal’ en niet ‘totaal’, omdat er bij geavanceerde vormen van lerende AI een black-box effect ontstaat: de AI opereert langs algoritmen die ook de ontwerpers soms niet meer kennen. Juist daarom is betrouwbaarheid cruciaal.
Inzicht in de kwaliteit van trainingsdata
Om AI te kunnen vertrouwen, heb je als arts ook inzicht nodig in de kwaliteit van de gegevens waarmee de AI wordt getraind. Het is bekend dat AI de neiging heeft om vertekening, zogeheten bias, in die gegevens te versterken. Er moeten dus garanties zijn dat bias in de trainingsgegevens wordt vermeden om onrechtvaardigheid niet te versterken, en waar mogelijk te verminderen. Ook in het steeds doorgaande leerproces van AI-systemen. Echter is de kwaliteit en representativiteit van trainingsdata voor de individuele dokter meestal niet goed te overzien; hier ligt een taak voor de beroepsorganisaties. Beroepsorganisaties zouden daarnaast moeten werken aan een heldere verdeling van verantwoordelijkheid en aansprakelijkheid voor de mogelijke negatieve gevolgen van de inzet van AI in de zorg, bijvoorbeeld wanneer AI fouten maakt.
Mogelijkheid tot corrigeren van uitkomsten
Een belangrijk onderdeel van betrouwbaarheid van AI in de zorg is dat de uitkomsten van de AI door mensen corrigeerbaar moet zijn. Met andere woorden: arts en patiënt moeten tegen de AI kunnen zeggen: dit klopt niet, doe het over. Dit wordt in de Engelse literatuur de ‘human-in-the-loop' genoemd. Dat is nodig om te zorgen dat het gebruik van AI op een verantwoorde manier kan worden ingebed in de gezamenlijke besluitvorming van arts en patiënt.
De hier genoemde voorwaarden zijn exemplarisch, maar er is meer nodig. Van de waarborg dat AI niet hackbaar is tot goede governance. Gelukkig zijn er veel ontwikkelingen op het gebied van regulering (bijv. de zogeheten AI Act, een EU-wetsvoorstel van de Europese Commissie) die bij kunnen dragen aan de betrouwbaarheid van AI. Ook initiatieven zoals de Leidraad kwaliteit AI in de zorg, opgesteld door en voor het zorgveld, dragen daaraan bij. Deze Leidraad biedt zorgverleners handvatten bij het beoordelen van kwaliteit en effectiviteit van voorspellende AI. Tot slot is er steeds meer aandacht voor methodes zoals ‘ethics by design’, die draaien om het vertalen van ethische waarden in het ontwerp en het functioneren van AI.
Tegelijk is er nog veel te doen voor AI een plek kan verwerven in de zorg van de individuele arts. Als dat lukt, zou het ertoe kunnen leiden dat artsen weer meer tijd en ruimte krijgen om te doen waar ze voor zijn opgeleid: goede zorg voor mensen met (complexe) gezondheidsproblemen. Als dat niet lukt, kan AI temeer een verstorende factor in de zorg worden. Laten we voor het eerste kiezen!
Iris Loosman, MA, beleidsadviseur ethiek, KNMG
Dick Willems, emeritus hoogleraar medische ethiek Amsterdam UMC, adviseur ethiek KNMG)
Ben je arts en wil je reageren op dit artikel, stuur dan een mail naar communicatie@fed.knmg.nl