Deel dit artikel
-

Emotionally Intelligent Design-expert Pamela Pavliscak: ‘Design verandert op subtiele wijze hoe we zijn’

Technologie die onze emoties kan lezen en erop inspelen is een groeimarkt van tientallen miljarden. Groei die door integratie in veelgebruikte platformen de komende jaren zal versnellen. Met een belofte voor onder andere veiligheid, gezondheid en educatie. Mits we nu de juiste weg inslaan, aldus Pamela Pavliscak, Emotionally Intelligent Design-expert en oprichter van Change Sciences.

Of het nu blikvanger Google Duplex is of een intelligente schrijftool van start-up Textio die gretig aftrek vindt bij Fortune 500-bedrijven: de strijd om het doorgronden van menselijke emotie is flink opgelaaid. Het is dan ook geen geheim dat vrijwel alle techgiganten potentievolle start-ups op dit vlak hebben ingelijfd of zelfstandig met de ontwikkeling van systemen bezig zijn. En ook de toekomstkijkers zijn erop aangeslagen. Zo kreeg Gartner vorig jaar veel persaandacht door te stellen dat systemen in 2022 meer over ons weten dan onze familieleden. Sterker nog: dat kunnen ze nu al, voegden onderzoekers van de universiteit van Ohio kort daarop toe middels een eigen studie.

Maar de adoptie van systemen die niet alleen veel weten, maar ook met ons meevoelen verloopt bijzonder langzaam, weet Pavliscak, die onder andere Google, Accenture, KLM en IKEA adviseert. AI die emotie detecteert kent momenteel namelijk nog veel beperkingen. Het neemt maar enkele fysieke zaken waar en heeft veelal slechts één uitleg van emotie. Anders gesteld: je bent blij of niet.

Een stap verder gaan systemen die een zestal basisemoties detecteren via ons gezicht en onze stem. Met name daarvan zullen we de komende twee jaar meer gaan zien, stelt Plavliscak. “Je zult ze als eerste tegenkomen in systemen die ons gezicht of stem kunnen herkennen, zoals een foto-app en smart speakers.” Het succes ervan wordt vergroot doordat systemen beter getraind gaan worden, geïntegreerd worden in platformen die we nu al gebruiken en multimodaal worden ingezet. Met het oog op dat laatste worden bijvoorbeeld stem, gezichtsuitdrukking en tekst gecombineerd om er emotie uit te destilleren.

Wat mede de reden is dat de markt flink zal groeien. In de schattingen van verschillende marktvorsers, die variëren tussen de 25 tot 45 miljard dollar in de komende twee tot drie jaar, kan Pavliscak zich dan ook prima vinden. “Onder voorbehoud dat er geen terugslag ontstaat door mogelijke schandalen. Maar als een partij als Facebook, die zijn systeem traint met elke klik die wij doen, het verder uitrolt kan de adoptie snel gaan.”

Wat moet er gebeuren om AI werkelijk emotioneel bewust te maken?
“Dat is een flinke opgave. Momenteel zien we ontwerpen voor emotie vooral als mensen naar een bepaalde bestemming krijgen. Dat we ze vrolijk willen maken als ze bedroefd zijn, of ze kalmeren als ze ongerust zijn. Een belangrijke stap is beseffen dat we mensen niet altijd moeten willen bewegen om een bepaald iets te voelen, maar ze juist de mogelijkheid geven bewust te zijn van hun emoties. Dat vergt een verandering van mindset.”

Een heel scherp beeld van wat er nodig is, is er dus niet?
“De uitdaging is dat een emotie veel verschillende varianten kan kennen. Denk aan boosheid, dat varieert enorm in heftigheid en kan bovendien gelinkt kan zijn aan een specifiek moment of persoon. Zelfs als we de komende twintig, dertig jaar proberen dat gedetailleerder in kaart te krijgen, zal er geen compleet beeld ontstaan. Wel geeft het steeds betere aanwijzingen waar je moet kijken. Als mensen sterke emoties voelen, is er iets belangrijks aan de hand. Dus weten wanneer dat zo is, is belangrijk en iets dat vaak mist in hedendaags onderzoek naar hoe we technologie gebruiken.”

Voor welke concrete toepassingen kan dit alles gunstig zijn?
“Automotive is een duidelijk voorbeeld. Tijdens CES 2019 presenteerde KIA bijvoorbeeld met een auto die emoties detecteert van bestuurder en andere inzittenden. Ford en Honda deden dat eerder ook al. De voornaamste reden is vrij simpel: veiligheid. Met comfort als goede tweede. Auto’s, die eigenlijk kleine boxen met sensors zijn, zijn bij uitstek geschikt hiervoor. Met een nobel doel dus: als mensen boos worden, maken ze ongelukken. Als ze afgeleid of slaperig zijn ook.”

En daarbuiten?
“Bij tech voor mentale en fysieke gezondheid zijn er ook positieve toepassingen. Zie het als een Fitbit voor je emotie. Het kan je feedback geven over je eigen gevoelens of die van je naasten. Er is bijvoorbeeld al een aangepaste variant van Google Glass voor jongeren die moeite hebben om emoties van anderen te lezen. Die helpt hen – op een heel basaal niveau – te leren welke emoties er uitgedrukt worden. Zodat zij hun vaardigheden verder kunnen ontwikkelen. Een heel ander voorbeeld is dat financiële instellingen biometrische informatie al op de beursvloer gebruiken om handelaren te trainen in zelfbewustzijn en emotie juist proberen te verminderen bij het nemen van beslissingen.”

Toch wordt het tot op heden vooral ingezet om verkopen te stimuleren…
“Biometrische toepassingen worden inderdaad al veel langer door marketeers gebruikt. Het verschil is echter dat dit soort labs vooral de standaardroute van traditioneel onderzoek volgen. Ze brengen mensen naar een lab, die ondertekenen een contract, hun data wordt geanonimiseerd en alleen binnen een bepaalde context gebruikt, met een duidelijke onderzoeksethiek. Nu emotiegevoelige AI in systemen opgenomen wordt, zullen gebruikers – ondanks dat ze er ergens in het proces wel toestemming voor hebben gegeven – zich er echter niet altijd bewust van zijn dat hun emotie wordt vastgelegd. Wat een belangrijk verschil is en kan leiden tot het manipuleren van emoties.”

Dit alles lijkt dan ook vooral ook ethische vraagstukken op te roepen…
“Klopt, en dat is een tweeledige kwestie. Enerzijds gaat het om privacygerelateerde zaken, zoals veiligheid en toestemming. Waarvoor we als eerste mensen duidelijk moeten maken wat de systemen doen, waar ze mee instemmen en wat er met hun informatie gebeurt. Wat uiterst belangrijk is. Anderzijds is er, en dat baart me nog de meeste zorgen, het risico van een te groot vertrouwen. We beschikken over systemen die enkele fysieke signalen kunnen oppikken die ons aanwijzingen geven over grote emoties. Meer kunnen ze niet. We geloven echter van wel, waardoor bedrijven kunnen claimen te weten wat mensen gelukkiger maakt of zelfs bozer. Of ze zijn geneigd om mensen een bepaalde persoonlijkheid toe te dichten, door de emotie waarmee ze op iets reageren. Dat blijft een groot risico; de keuzevrijheid van mensen beperken en ze in hokjes te stoppen.”

Zullen de recente privacyschandalen rondom Facebook en andere partijen daar niet bij helpen?
“Ik hoop van wel, maar krijg nog steeds regelmatig te horen dat mensen het niet erg vinden om digitaal doorgrond te worden door grote dan wel kleine bedrijven. Omdat ze denken alleen meer gerichte advertenties te krijgen. Velen bevatten de volledige gevolgen nog niet en de industrie heeft er geen werk van gemaakt om daar bewustzijn over te creëren. Besef je dat als alle data die over je bekend is geaggregeerd wordt, inclusief emotionele reacties, er een gedetailleerde persoonlijkheid van je wordt geschetst die voor allerlei doeleinden gebruikt kan worden. En de stap naar manipulatie erg klein is. Vandaar dat nu de discussie gevoerd met worden over ethiek. Sinds Cambridge Analytica wordt er meer over gesproken in de tech community, maar nog niet specifiek over emotie.”

Terug naar de praktijk. Welke bedrijven pakken het volgens jou al goed aan?
“De game Nevermind is een goed voorbeeld. Dat spel reageert op de emotie van spelers, met de bedoeling dat zij zichzelf trainen kalmer te blijven. Als het systeem stress detecteert, krijg je een andere, lastigere variant van het spel te zien dan wanneer je kalm blijft. Daarbij hebben de makers het besluit genomen om de data niet op te slaan en te delen. Een ander voorbeeld komt uit educatie. Hoewel nog in een experimentele fase is tech die in staat is te kijken wanneer studenten bij de les blijven of wanneer ze in de war raken veelbelovend. Ook hier geldt echter dat het nog niet mogelijk is om dit heel nauwkeurig te meten, maar het helpt onderwijzers al om hun lessen aan te passen en op maat te maken op basis van  feedback.”

Data over emotie worden momenteel vooral verzameld via spraak, gezicht en biometrie, zoals temperatuur van de huid en onze hartslag. Welke manieren verwacht je nog meer?
“Dat zit hem niet zozeer in nieuwe manieren, maar in de combinatie van de zaken die we nu al vastleggen. Bijvoorbeeld eye tracking combineren met hartslag. Zodat je weet dat als iemand op een bepaalde plek kijkt, zijn hartslag omhoog gaat. Dat geeft context bij de emotie. Daarnaast zullen data vooral gecombineerd gaan worden met andere gegevens zoals geolocatie en socialmediaposts. Als extra manier om de puzzelstukjes aan elkaar te leggen en context te begrijpen. Dat is uiteraard waar ethiek nog belangrijker wordt. Hoe meer data je verzamelt, hoe groter je verantwoordelijkheid.”

Waar ligt die verantwoordelijkheid?
“Die is gelaagd. Organisaties als geheel hebben een verantwoordelijkheid, maar ook teams en individuen. Interessant is dat emotie-AI de balans kan veranderen, doordat het zo persoonlijk en privé is. De tech community heeft namelijk technologie lange tijd gezien als iets neutraals, iets rustigs en kalms dat op de achtergrond draait. Dat is veelal niet zoals het gaat. Denk alleen al aan de momenten van frustratie of woede door de apparaten en software waar we mee werken. Of welke invloed likes en notificaties op ons hebben. Design verandert op subtiele manieren hoe we zijn en emotie-AI zal ons daar meer bewust van maken dan ooit.”

Het dystopische beeld tekent zich vlot af. Hoe ziet de utopie er volgens jou uit?
“In online interacties zie je nu duidelijk een gebrek aan emotioneel bewustzijn en begrip. Als we systemen hebben die zich niet alleen kunnen aanpassen aan onze emoties, maar ons ook bewust maken van onze eigen emoties, kunnen we een samenleving creëren die meer verbonden en zorgzamer is. Dat is het ontbrekende onderdeel in onze huidige technologie.”

Tot slot, waar zit volgens jou de urgentie om dit als bedrijf op te pakken?
“Emoties maken een groot deel van ons beslissingsproces uit. Ze sturen hoe we ons tegenover elkaar gedragen en hoe we met bedrijven omgaan. Momenteel kijken we – als we het hebben over emotie en design – vooral nog naar kortetermijneffecten. De verschuiving komende jaren naar een blik verder vooruit zal zorgen voor een relatie die emotioneel beter afgestemd is. Producten en diensten die meer emotiebewust zijn, kunnen bovendien ervaren worden als toegevoegde waarde voor het leven. En zullen mensen stimuleren een langetermijnrelatie aan te gaan met merken. Wat belangrijk is voor je positionering.”

* Dit artikel verscheen eerder in het maartnummer van Emerce magazine (#170).

Beeld: Celeste Sloman (in opdracht van Emerce)

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond