Nieuw ICAI Lab ‘Explainable AI for Health’

Het Centrum Wiskunde & Informatica (CWI) en het Leids Universitair Medisch Centrum (LUMC) hebben hun krachten gebundeld in het ICAI* Lab Explainable AI for Health. Ze ontwikkelen nieuwe vormen van kunstmatige intelligentie (AI) waarbij duidelijk is hoe de getrainde modellen tot bepaalde voorspellingen komen. Deze technologie kan worden gebruikt als klinische beslissingsondersteuning voor artsen en patiënten.
Het doel van het lab is om nieuwe inherent uitlegbare AI-technieken en -richtlijnen te ontwikkelen en te valideren die kunnen worden gebruikt voor klinische besluitvorming. Nieuw is dat de modellen zodanig ontwikkeld worden dat ze alle beschikbare gegevens tegelijkertijd meenemen (bijvoorbeeld patiëntgerelateerde gegevens, beeldvormingsgegevens). In eerste instantie ligt de focus op oncologie, met toepassingen bij het LUMC en bij partnerinstituut Amsterdam UMC. Hieronder vallen palliatieve zorg, gynaecologische kankerzorg en zorg voor patiënten met een paraganglioom (zeldzame tumor) in het hoofd-halsgebied.
Wetenschappelijk directeur Peter Bosman (groepsleider van de onderzoeksgroep Evolutionary Intelligence bij het CWI en hoogleraar bij de TU Delft): “Klinische beslissingsondersteuning op basis van AI kan een grote meerwaarde hebben voor artsen en patiënten. Moderne AI-modellen, met name deep learning-modellen, kunnen heel krachtig zijn, maar het is niet altijd eenvoudig uit te leggen hoe ze tot een bepaalde voorspelling komen.” Daarom ontwikkelen het CWI en het LUMC nieuwe vormen van AI die zo transparant mogelijk zijn, zodat artsen en patiënten begrijpen waarom een bepaalde voorspelling wordt gedaan.
Vertrouwen
“Een gebrek aan uitlegbaarheid belemmert het brede gebruik van AI voor medische toepassingen”, zegt wetenschappelijk directeur Tanja Alderliesten (universitair hoofddocent bij de afdeling Radiotherapie van het LUMC). “De beschikbaarheid van AI-modellen die inherent uitlegbaar zijn, kan het vertrouwen in deze vorm van kunstmatige intelligentie doen toenemen. Deze modellen kunnen goed geïnformeerde gezamenlijke besluitvorming ondersteunen, bijvoorbeeld met betrekking tot de keuze van de behandeling of follow-up procedure (zoals de frequentie van herhaalbezoeken). Daarnaast kunnen artsen nieuwe kennis opdoen, omdat de modellen gemakkelijk te inspecteren en te begrijpen zijn. Zo wordt bijvoorbeeld inzichtelijk hoe bepaalde factoren samen een specifieke rol spelen bij het doen van voorspellingen.”
ICAI
*Een ICAI (Innovation Center for Artificial Intelligence) Lab is een onderzoekssamenwerking tussen industriële, overheids- of non-profit partners enerzijds en kennisinstellingen anderzijds. ICAI Labs richten zich op AI-technologie en huisvesten minimaal vijf promovendi. Financiering van de vijf promotieplaatsen bij het Explainable AI for Health Lab is verkregen via NWO en het Gieskes-Strijbis Fonds.
Over
CWI
Het CWI (Centrum Wiskunde & Informatica) is het nationaal onderzoeksinstituut voor wiskunde en informatica en is onderdeel van de institutenorganisatie van NWO. Het CWI is opgericht in 1946 en is gevestigd op Science Park Amsterdam. Het instituut heeft een sterke internationale positie en staat bekend om de hoge kwaliteit van zijn onderzoek.
LUMC
Als centrum van medische vernieuwing streeft het Leids Universitair Medisch Centrum (LUMC) naar een (inter)nationaal erkende vooraanstaande rol in de verbetering van de kwaliteit van de gezondheidszorg. De kerntaken van het LUMC zijn onderzoek, onderwijs, patiëntenzorg, opleiding en bij- en nascholing. Het LUMC maakt deel uit van de Nederlandse Federatie van Universitair Medische Centra (NFU). De NFU is een samenwerkingsverband van de acht universitair medische centra (UMC’s) in Nederland.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.