Deel dit artikel
-

NWO-subsidie voor onderzoek naar intimidatie in VR

Twee projecten van Utrechtse onderzoekers krijgen een subsidie vanuit het Nationaal Groeifonds-programma AINed. Met dit geld kunnen ze veelbelovende, vernieuwende en grensverleggende initiatieven uitwerken die maatschappelijke uitdagingen in de zorg en virtual reality aanpakken met behulp van kunstmatige intelligentie.

Julian Frommel, universitair docent bij de Interaction/Multimedia groep van de Bètafaculteit, gaat onderzoek doen naar grensoverschrijdend gedrag in VR-omgevingen.

Zijn collega, Wilson dos Santos Silva, recent aangesteld bij dezelfde faculteit, gaat zich richten op het verbeteren van AI-modellen die kunnen leren van patiëntgegevens van verschillende ziekenhuizen, zonder privacyregels te schenden.

Met de subsidie van 80.000 euro gaat hij zich richten op het robuuster maken van AI-modellen die gebruikt worden bij kankeronderzoek in Nederland. Momenteel is dit onderzoek afhankelijk van het verzamelen van medische gegevens – zoals MRI-scans – van verschillende ziekenhuizen, waarmee op een centrale locatie de AI-algoritmen worden getraind.

Een uitdaging die daarbij optreedt, is dat de data per ziekenhuis erg verschilt. Hierdoor verschillen ook de lokale modellen die bijdragen aan het uiteindelijke gecombineerde model. Dit leidt tot onzekerheid in de voorspellingen die het model doet.

Ook Julian Frommel krijgt 80.000 euro voor zijn AI-onderzoek. Frommel en zijn collega’s duiken in de wereld van social extended reality (XR). Deze immersieve, virtuele omgevingen worden steeds populairder, bijvoorbeeld in gaming, maar ook voor vergaderingen en sociaal contacten. Gebruikers hebben echter ook steeds vaker te maken met intimidatie.

Momenteel zijn er menselijke ‘moderators’ bij wie je dergelijk gedrag kunt aankaarten. Deze moderators beoordelen of de klacht terecht is en kunnen straffen opleggen, zoals verwijdering van het platform. ‘Wij willen onze AI-modellen sociale interacties tussen mensen leren begrijpen. Als we weten hoe dat werkt, kunnen de AI-modellen kunnen deze moderators helpen door mogelijk onaangepast gedrag te detecteren en door een prioritering aan te brengen in wat te beoordelen als er veel klachten zijn ingediend.’

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond