Miljoenen mensen over de hele wereld maken dagelijks gebruik van chatbots voor medisch advies en ondersteuning op het gebied van geestelijke gezondheid. Maar: ChatGPT en andere alternatieven zijn niet uitgerust om veilige, ethische en gezonde begeleiding te bieden. ‘Ze berekenen het meest waarschijnlijke volgende woord, niet wat het beste is voor de persoon’, legt computerwetenschapper Erkan Başar uit. ‘Ze missen emotionele diepgang en het vermogen om de motivaties van een gebruiker te begrijpen, en zijn alleen getraind om coherent te reageren. In gezondheidscontext, zoals stoppen met roken of seksueel advies zoeken, kan dat leiden tot manipulatie of zelfs schade.’

Motiverende gespreksvoering

Başar onderzocht of bewezen counselingstrategieën chatbotgesprekken veiliger konden maken. Dit zou gebeuren op een manier die vergelijkbaar is met motiverende gespreksvoering, een techniek die vaak door professionals wordt gebruikt en waarvan de effectiviteit is bewezen. Motiverende gespreksvoering draait om iemands eigen redenen voor verandering in plaats van hem of haar te confronteren wanneer het fout gaat. Je vertelt iemand niet alleen waarom roken slecht is, maar helpt hem of haar ook om zijn of haar eigen motivatie om te stoppen te ontdekken.

‘We hebben dit toegepast op chatbots door gesprekken te ontwerpen die deskundige strategieën volgen in plaats van alles aan het toeval over te laten’, legt Başar uit. ‘De chatbot stelt vragen en reageert op een manier die de autonomie respecteert, waardoor gebruikers kunnen nadenken over hun eigen motivatie. Deze gestructureerde aanpak zorgt voor ethische begeleiding, iets wat ChatGPT niet kan garanderen.’

De opkomst van boeiende chatbots

Başar begon zijn onderzoek in 2020, toen chatbots nog beperkt waren in hun mogelijkheden. ‘Meestal waren ze als interactieve formulieren. Je kon maar een zeer beperkt aantal vragen stellen en kreeg dan vaak dezelfde antwoorden op je vragen. Succesvolle gezondheidsbegeleiding vereist dat je je als patiënt betrokken voelt, dat je terugkomt en met je begeleider blijft praten.’ De meer traditionele chatbots waren niet in staat om die vorm van betrokkenheid te bieden, omdat ze te beperkend en repetitief waren.

De opkomst van grote taalmodellen in de loop der jaren en de introductie van ChatGPT in 2022 hebben daar verandering in gebracht, legt Başar uit. ‘Deze generatie chatbots maakt gebruik van grote taalmodellen om meer flexibiliteit en variatie in gesprekken te brengen. Je krijgt nooit twee keer hetzelfde antwoord en gesprekken kunnen veel effectiever op je behoeften worden afgestemd. Plotseling praatten mensen weken- of zelfs maandenlang met chatbots, wat ook cruciaal is voor gedragsverandering op de lange termijn. Dit kan echter onbedoelde gevolgen hebben voor de gezondheid, aangezien deze modellen door AI-bedrijven zijn ontworpen om gebruikers betrokken te houden, niet om echt advies of deskundig advies te geven. Om deze reden raden we het gebruik van algemene AI voor advies over gedragsverandering op gezondheidsgebied af. In plaats daarvan moeten we een middenweg vinden en boeiende chatbots ontwikkelen die specifiek zijn ontworpen voor bepaalde onderwerpen, zodat ze op een veilige en ethische manier begeleiding kunnen bieden.’

Menselijke expertise blijft essentieel

Ondanks deze vooruitgang ziet Başar chatbots niet als een vervanging voor medische professionals. ‘Een counselor is cruciaal om je specifieke situatie te begrijpen en om regelmatig feedback te geven en de behandeling die je nodig hebt aan te passen. Maar stel je voor dat je regelmatig naar je counselor gaat omdat je wilt stoppen met roken of wilt praten over seksuele gezondheid. Je kunt hem of haar echter niet 24/7 bereiken. Als je om middernacht trek hebt in een sigaret, kan een chatbot er zijn op momenten dat een mens dat niet kan. Een chatbot kan niet alles doen wat een menselijke counselor kan, maar hij kan net genoeg ondersteuning bieden wanneer je dat nodig hebt. Het gaat hier om het vergroten van de beschikbaarheid, niet om het vervangen van menselijke expertise.’