• Beste gast, wij willen dit platform constant verbeteren maar hebben daarbij jouw hulp nodig!
    Wil je een paar minuten van je tijd spenderen aan deze korte enquête?

Laurens de Groot

Klinisch Informaticus
Moderator
Organisatie
Radboudumc
Op LinkedIn kwam ik een mooie post tegen van @robmalschaert over de zin en onzin van AI in de zorg.

Recent mocht ik in Breda spreken op de beleidstafel van het EMBRAZE Kankernetwerk en Het oncologienetwerk Concord. Mijn verhaal daar ging sec niet over AI maar over ondersteuning van het MDO met de wat meer traditionele IT oplossingen, maar er kwam achteraf wel een vraag uit het publiek over AI-ondersteuning - en de verwachting die men daarvan had. Mijn initiele reactie was een vergelijkbare als jouw uitkomst: de mooie toevoeging van AI ontslaat ons niet van de noodzaak tot goede standaardisering, uniformering en eenheid van taal - sterker nog voor goede AI is dat misschien nog steeds wel randvoorwaardelijk om ook zinnige uitkomsten te krijgen (weten wij veel, want: het is een black box).

AI-in-healthcare.jpg


Achteraf kwam uit discussie met o.a. Prof. dr. Kees Verhoef toch het standpunt dat we er niet zo bang voor moeten zijn en het veel meer kunnen omarmen dan we nu doen. Dat zette me wel aan het denken - want de wijze waarop we dit soort innovatie/vernieuwing nu vaak bekijken lijkt toch vanuit een bestaand paradigma dat 'wij als ICT/IM organisatie' de zorg te ondersteunen hebben met beschikbare, integere en veilige applicaties opdat hun werkproces met een zekere garantie verbeterd kan worden. Om die veiligheid en integriteit te bereiken schieten we misschien wel eens te ver door, met noodzaak tot validatie en certificering aan toe. Maar hoe valideer je een blackbox waarvan het algoritme onbekend is? Dat is en blijft misschien wel onmogelijk. Het gevolg is dat er onzekerheid of misschien wel angst ontstaat over oplossingen die we niet vanuit dat paradigma kunnen duiden, maar is dat terecht?

Mijn verhaal over MDO optimalisatie door inzet van ICT ging juist over het brengen van lasten verlichting in het MDO proces, door betere ondersteuning met software waardoor het eindeloos compleet maken van dossiers, zoeken naar informatie, opvragen en ophalen van extra beelden etc. overbodig zou worden of in ieder geval veel minder tijd zou kosten. De eerste positieve ervaringen met dergelijke ondersteuning door bijv. MDO portalen zijn er inmiddels. En als het gaat over tijd besparen, dan kan AI natuurlijk wel degelijk een waardevolle bijdrage leveren daaraan. Niet als volledig gecertificeerde generator van diagnose of beleid, maar wel om zinvolle voorstellen te doen t.a.v. behandelopties of om de uitkomsten van het MDO te vertalen naar (voor de patiënt) leesbare conclusies. Als halffabricaat dus. Het neemt daarmee geen eindverantwoordelijkheid over van de arts, die moet evengoed blijven controleren en verifiëren dat voorgestelde output ook daadwerkelijk klopt. Over die as kan er dus wel degelijk op korte termijn waardevolle toevoeging zijn - mits we met elkaar wel de goede afspraken maken over de wijze van interpretatie van de resultaten en accepteren dat het misschien onvolmaakt is.

Er schuilt m.i. tegelijkertijd toch ook weer een risico in dat we niet moeten onderschatten; immers als straks alle conclusies, teksten en voorstellen automatisch gegenereerd worden en het werk van de arts daarmee (op dat moment) reduceert tot het controleren en valideren, ligt misschien ook wel een bepaalde vorm van 'moeheid' op de loer; ik kan me heel goed voorstellen dat het geregeld kan gaan voorkomen dat een bepaald onderdeel van de AI-output tóch niet klopt, maar daar makkelijk overheen gelezen wordt (immers de rest is misschien wel juist en steekhoudend). Dan slopen er dus onbewust en ongewild toch fouten in het werk. Proberen we fouten door overtypen van tekst nu te voorkomen door juist discrete danwel gecodeerde/geclassificeerde data door systemen te laten verwerken, introduceren we misschien wel een nieuw risico op fouten aan de andere kant van deze technologische praal. Want: er komt toch echt ook nog geregeld grote onzin uit ChatGPT en alle huidige vormen van zgn. Large Language Models zijn niet zonder gevaren... Maar absoluut bekeken kan het zelfs in deze fase denk ik al veel opleveren. Parallel aan het doorzetten van eenheid van taal wat mij betreft. Want dat hebben we voor een door Kuipers benoemde data-centrische architectuur toch ook nodig.

Aan de slag dus: wie durft het als eerste aan?
 
Laatst bewerkt door een moderator:
Overigens duidde @E. Zwarter achteraf ook nog op de ontwikkelingen die Nuance een aantal jaren geleden had rondom het automatisch verwerken en coderen van proza-tekst door spraakherkenning naar bekende code- en terminologiestelse zoals zoals LOINC, SNOMED-CT of ICD-10. Ik weet niet of ze daarbij ook vormen van AI toepaste eigenlijk, maar het ligt in vergelijkbare ondersteuningstoepassing als het hierboven beschreven voorbeeld. Heeft daar iemand ooit nog iets van gehoord? Ook dat leek toen een sprookje voor de toekomst...
 
Overigens duidde @E. Zwarter achteraf ook nog op de ontwikkelingen die Nuance een aantal jaren geleden had rondom het automatisch verwerken en coderen van proza-tekst door spraakherkenning naar bekende code- en terminologiestelse zoals zoals LOINC, SNOMED-CT of ICD-10. Ik weet niet of ze daarbij ook vormen van AI toepaste eigenlijk, maar het ligt in vergelijkbare ondersteuningstoepassing als het hierboven beschreven voorbeeld. Heeft daar iemand ooit nog iets van gehoord? Ook dat leek toen een sprookje voor de toekomst...
ik zag daar recent dit artikel over: https://www.cnbc.com/2023/03/20/mic...ical-notes-application-powered-by-openai.html
 
Oorspronkelijk was het idee een spin-off van het Citrien eHealth project Consult Replay Met deze data uit de spreekkamer zouden we Nuance (in 2017 heette het nog geen AI :)) gaan voeden, leren en bijsturen op het gewenste resultaat. Om meerdere redenen is het project bij ons het project in de koelkast gegaan. Daarmee ook geen vervolg meer gekregen op de spin-off voor omzetten van gestructureerde data. In LUMC heeft dit nog een vervolg gekregen maar met het vertrek van Rob Cornelisse en Simone Cammel naar Google is bij mij het spoor koud geworden. https://www.doq.nl/de-opname-van-he...elbaar-via-het-patientportaal-nergens-anders/
 
Zie de post van @Pim Volkert op dit forum!
 
Op LinkedIn kwam ik een mooie post tegen van @robmalschaert over de zin en onzin van AI in de zorg.

Recent mocht ik in Breda spreken op de beleidstafel van het EMBRAZE Kankernetwerk en Het oncologienetwerk Concord. Mijn verhaal daar ging sec niet over AI maar over ondersteuning van het MDO met de wat meer traditionele IT oplossingen, maar er kwam achteraf wel een vraag uit het publiek over AI-ondersteuning - en de verwachting die men daarvan had. Mijn initiele reactie was een vergelijkbare als jouw uitkomst: de mooie toevoeging van AI ontslaat ons niet van de noodzaak tot goede standaardisering, uniformering en eenheid van taal - sterker nog voor goede AI is dat misschien nog steeds wel randvoorwaardelijk om ook zinnige uitkomsten te krijgen (weten wij veel, want: het is een black box).

AI-in-healthcare.jpg


Achteraf kwam uit discussie met o.a. Prof. dr. Kees Verhoef toch het standpunt dat we er niet zo bang voor moeten zijn en het veel meer kunnen omarmen dan we nu doen. Dat zette me wel aan het denken - want de wijze waarop we dit soort innovatie/vernieuwing nu vaak bekijken lijkt toch vanuit een bestaand paradigma dat 'wij als ICT/IM organisatie' de zorg te ondersteunen hebben met beschikbare, integere en veilige applicaties opdat hun werkproces met een zekere garantie verbeterd kan worden. Om die veiligheid en integriteit te bereiken schieten we misschien wel eens te ver door, met noodzaak tot validatie en certificering aan toe. Maar hoe valideer je een blackbox waarvan het algoritme onbekend is? Dat is en blijft misschien wel onmogelijk. Het gevolg is dat er onzekerheid of misschien wel angst ontstaat over oplossingen die we niet vanuit dat paradigma kunnen duiden, maar is dat terecht?

Mijn verhaal over MDO optimalisatie door inzet van ICT ging juist over het brengen van lasten verlichting in het MDO proces, door betere ondersteuning met software waardoor het eindeloos compleet maken van dossiers, zoeken naar informatie, opvragen en ophalen van extra beelden etc. overbodig zou worden of in ieder geval veel minder tijd zou kosten. De eerste positieve ervaringen met dergelijke ondersteuning door bijv. MDO portalen zijn er inmiddels. En als het gaat over tijd besparen, dan kan AI natuurlijk wel degelijk een waardevolle bijdrage leveren daaraan. Niet als volledig gecertificeerde generator van diagnose of beleid, maar wel om zinvolle voorstellen te doen t.a.v. behandelopties of om de uitkomsten van het MDO te vertalen naar (voor de patiënt) leesbare conclusies. Als halffabricaat dus. Het neemt daarmee geen eindverantwoordelijkheid over van de arts, die moet evengoed blijven controleren en verifiëren dat voorgestelde output ook daadwerkelijk klopt. Over die as kan er dus wel degelijk op korte termijn waardevolle toevoeging zijn - mits we met elkaar wel de goede afspraken maken over de wijze van interpretatie van de resultaten en accepteren dat het misschien onvolmaakt is.

Er schuilt m.i. tegelijkertijd toch ook weer een risico in dat we niet moeten onderschatten; immers als straks alle conclusies, teksten en voorstellen automatisch gegenereerd worden en het werk van de arts daarmee (op dat moment) reduceert tot het controleren en valideren, ligt misschien ook wel een bepaalde vorm van 'moeheid' op de loer; ik kan me heel goed voorstellen dat het geregeld kan gaan voorkomen dat een bepaald onderdeel van de AI-output tóch niet klopt, maar daar makkelijk overheen gelezen wordt (immers de rest is misschien wel juist en steekhoudend). Dan slopen er dus onbewust en ongewild toch fouten in het werk. Proberen we fouten door overtypen van tekst nu te voorkomen door juist discrete danwel gecodeerde/geclassificeerde data door systemen te laten verwerken, introduceren we misschien wel een nieuw risico op fouten aan de andere kant van deze technologische praal. Want: er komt toch echt ook nog geregeld grote onzin uit ChatGPT en alle huidige vormen van zgn. Large Language Models zijn niet zonder gevaren... Maar absoluut bekeken kan het zelfs in deze fase denk ik al veel opleveren. Parallel aan het doorzetten van eenheid van taal wat mij betreft. Want dat hebben we voor een door Kuipers benoemde data-centrische architectuur toch ook nodig.

Aan de slag dus: wie durft het als eerste aan?
 
Mooi artikel. Echter AI zal ook via de CE-markering moeten, als het een onderdeel is van het diagnostisch proces. Met een black box zal valideren lastig worden. Blijf sterk voorstander van DDF's met goed gedefinieerde data. NLP is lastig, want wat niet wordt vermeld kan niet worden omgezet
 
Terug
Bovenaan