‘Digital humans’ in marketing: wettelijke kaders voor inzet vóór en achter de schermen
‘Digital humans’ en ‘twins’, virtuele influencers: we zien ze steeds vaker. Digitale representaties van klanten, doelgroepen en experts zijn al langer onderdeel van marketingstrategieën, maar roepen ook steeds meer discussie op.
Afgelopen week zorgde de nieuwste editie van de Vogue voor veel commotie vanwege een AI-gegenereerd model in de campagne van Guess. De online discussie ging over het feit dat het een te perfect model was, wat ingaat tegen diversiteit en alle inspanningen om de verouderde schoonheidsnormen in de modewereld los te laten. Voor Vogue was dit de eerste keer dat er gebruik werd gemaakt van een AI-model, maar in de marketingsector zien we al jaren het gebruik van digital humans vóór en achter de schermen.
Waar digital humans eerder vooral dienden als representaties van klanten en experts voor intern gebruik, zien we ze nu ook terug als virtuele influencers en merkambassadeurs voor de buitenwereld, zowel in B2C als B2B. Dankzij de geavanceerde capaciteiten van generatieve AI en slim datagebruik worden ze steeds effectiever, veelzijdiger en breder toepasbaar. Van synthetische klantmodellen tot interactieve avatars: nieuwe deuren worden geopend voor datagedreven marketing, waarbij we altijd ook moeten nadenken over de wettelijke kaders waarbinnen deze technologie kan worden ingezet.
In dit artikel worden de toepassingen van digital humans besproken met een focus op de belangrijkste aandachtspunten op het gebied van privacy, AI-regelgeving en consumentenvertrouwen.
Wat is een ‘digital human’?
Digital humans of digital twins worden de afgelopen jaren steeds vaker ingezet om campagnes slimmer te maken, klantinteracties te personaliseren, merken te representeren en interne processen zoals training te optimaliseren. Een digital twin is een dynamisch digitaal model dat real-time data integreert uit verschillende bronnen, zoals sensoren, CRM’s of klantgedrag, en op basis van AI en simulatie toekomstig gedrag voorspelt.
Hoe kun je ‘digital humans’ gebruiken in marketing
Toepassingen van digital twins in de marketingcontext bestaan sinds ongeveer 2016, toen personalisatietechnologie voldoende volwassen werd om klantgedrag betrouwbaar te modelleren. Maar de afgelopen jaren staat een digitale versie van de klant of doelgroep van de campagne nadrukkelijk op de radar van grote organisaties, mede door de opkomst van customer data platforms (CDP’s) en real-time interactietools. Wat begon met voorspellende modellen in e-commerce en loyalty-programma’s, ontwikkelt zich inmiddels richting bredere toepassingen in zowel B2C- als B2B-marketing.
‘Digital twin’ van de klant
Binnen marketing kennen we allereerst een “digital twin of the customer” (DToC): een datagedreven avatar van een individu of klantgroep. Anders dan een statisch profiel ontwikkelt deze twin zich continu op basis van actuele interacties en context. Ze kunnen ook worden ingezet om een hele doelgroep te representeren, bijvoorbeeld door meerdere profielen te combineren tot één dynamische persona. Door het gebruik van digital twins kunnen marketeers simuleren welk type boodschap of aanbod het best aansluit bij individuele klanten, zonder eerst ‘in het wild’ te testen, dus een echte sandbox voor customer-journey-optimalisatie: dus vroegtijdig patronen herkennen, en gedrag voorspellen.
De laatste tijd zien we, naast digitale representaties van klanten, ook steeds vaker digital humans als zichtbaar onderdeel van marketingcampagnes. Dit kunnen dan virtuele personages zijn met een menselijke verschijningsvorm en interactief gedrag. In de B2C-markt worden ze bijvoorbeeld ingezet als virtuele influencers en merkambassadeurs. Deze AI-aangestuurde digital humans kunnen voortdurend content creëren, interacties aangaan op sociale media en een merkidentiteit vertegenwoordigen, zonder dat ze een eigen wil of interpretatie ontwikkelen.
Dat maakt ze aantrekkelijk voor merken die volledige regie willen houden over tone of voice en visuele stijl, iets wat je (deels) uit handen geeft bij samenwerking met normale, menselijke influencers. Vooral jongere doelgroepen reageren positief op menselijke trekjes in digitale communicatie, wat vertrouwen en engagement versterkt.
Ook kunnen digital humans een oplossing bieden in sectoren waar het inzetten van echte gezichten gevoelig ligt, zoals bij hulpverlening, overheidscommunicatie of financiële dienstverlening etc. Door een digitaal gezicht in te zetten, krijgt de boodschap wel menselijke uitstraling, terwijl neutraliteit, controle en consistentie behouden blijven. Zo ontwijk je mogelijke persoonlijke risico’s voor een echte acteur, model of influencer.
Voorbeelden: Zalando, Esther Olofsson en TUI
Een goed voorbeeld is Zalando, dat met generatieve AI digital twins van modellen creëert om snel in te spelen op modetrends op sociale media. Zo daalde de productieperiode van beeldmateriaal van acht weken naar slechts enkele dagen. In de afgelopen periode was zeventig procent van Zalando’s redactionele content AI-gegenereerd. Hierdoor konden visuele campagnes rond trends als “brat summer” en “mob wife” snel, consistent en zonder fotoshoots in te hoeven plannen.
Nog een goed voorbeeld is de Nederlandse virtuele influencer “Esther Olofsson” ontwikkeld door de creatieve studio RAUWCC. Het is een hyperrealistisch digitaal human-personage en wordt ingezet in fashion shoots, branding en creatieve conceptcampagnes. Esther is ingezet in campagnes, zoals die van Postillion Hotels.
TUI zet digitale avatars in als virtuele hosts voor klantenservice, reisvoorbereiding en website-interactie. Deze hosts begeleiden klanten bij boekingen en vragen, behouden overal dezelfde tone of voice. Dit zorgt voor herkenbaarheid en versterkt de merkbinding, omdat klanten steeds dezelfde host zien op alle touchpoints. TUI introduceerde recent Lena, een AI Explorer en virtuele content creator die onderdeel is van het TUI-influencerteam. Lena kan (potentiële) klanten van TUI inspireren met echte beelden van bestemmingen wereldwijd en kan door haar digitale karakter razendsnel content creëren en delen. Het kan klanten “sneller, actueler en relevanter informeren en inspireren,” aldus het contentbureau achter de ontwikkeling.
Digital Humans als interne kennisdelers
In B2B zien we digital humans juist terug in interne trainingen en kennisdeling. Bedrijven bouwen dan digitale versies van productexperts of salescoaches die gesprekken nabootsen, uitleg geven of interactieve onboarding verzorgen. De AI achter deze digitale representaties leert voortdurend bij, waardoor het trainingsniveau matcht met de medewerker. Of simpelweg het inzetten van een interne HR-assistent, zodat medewerkers alle personele kwesties aan de digitale HR-medewerker kunnen vragen.
Juridische overwegingen
De voordelen zijn onmiskenbaar: betere voorspellingen, lagere kosten, snellere doorlooptijden en schaalbare personalisatie. Maar wie inzet op digital twins en digital humans in marketing, moet ook verantwoordelijkheid nemen voor ethisch ontwerp en juridisch verantwoorde implementatie. Dat begint met het stellen van de juiste vragen: is de datarepresentatie noodzakelijk? Is de avatar transparant over zijn niet-menselijke aard? Hebben gebruikers inzicht in hun data-twin?
Dataverwerking
Een digital twin of human die klantgedrag simuleert of erop reageert, verwerkt in veel gevallen persoonsgegevens. De Algemene Verordening Gegevensbescherming (AVG) is dan onvermijdelijk van toepassing. Bij gebruik van deze technologie moet je als organisatie onder meer:
- een geldige verwerkingsgrondslag kiezen (zoals toestemming of gerechtvaardigd belang);
- zorgen voor dataminimalisatie (verwerk alleen wat echt nodig is);
- transparant communiceren over het doel van de verwerking;
- voldoende technische en organisatorische beveiligingsmaatregelen treffen.
Stel jezelf steeds de vraag: weet de consument dat zijn of haar gegevens worden gebruikt voor het trainen van een AI-model of het creëren van een digital human, en zou die daar redelijkerwijs bezwaar tegen kunnen hebben?
Hyperpersonalisatie
Een twin die gedrag simuleert op basis van historische data valt sneller onder profilering in de zin van artikel 4(4) en 22 AVG. Zeker wanneer voorspellingen worden gebruikt om geautomatiseerd beslissingen te nemen over bijvoorbeeld marketinginhoud, kortingen of productaanbevelingen, kan er eventueel sprake zijn van geautomatiseerde besluitvorming met significante gevolgen.
In dat geval moet je expliciet informeren over het bestaan van deze profilering, inzicht geven in de logica van het algoritme én betrokkenen de mogelijkheid bieden om bezwaar te maken of menselijke tussenkomst te vragen. Human-like avatars die live communiceren roepen zorgen op over beïnvloeding, zoals we die eerder zagen bij vergaande personalisatie: zodra AI te menselijk overkomt of het gedrag op onderbewust niveau begint te sturen, komt de “creepy line” in zicht.
Misleiding en transparantie
Hoe menselijker een digitale representatie oogt, hoe groter de verwachting van transparantie en eerlijkheid. Een AI-gestuurde avatar die spreekt, kijkt of lacht als een mens, wekt snel de indruk van een persoon met bewustzijn en intentie. Wanneer een consument dat niet doorheeft, ontstaat het risico op misleiding: een praktijk die onder Europese consumentenbescherming als een oneerlijke handelspraktijk kan worden beschouwd.
Als een digital human bijvoorbeeld suggesties doet of ‘advies’ geeft, kan de indruk ontstaan dat een persoon met kennis en intentie spreekt. Zeker bij commerciële communicatie geldt: als de inzet van een digital human de gemiddelde consument kan misleiden over de afzender of het commerciële karakter van de boodschap, dan is dit juridisch problematisch. Daarom moet altijd helder zijn dat sprake is van een digitale representatie, wie erachter zit, en wat het doel is. Het is essentieel dat duidelijk blijft dat het om een AI-gestuurde representatie gaat, zonder menselijke autonomie, vooral om misleiding of overdreven vertrouwen te voorkomen.
Toepassing van de AI Act
De AI Act, sinds februari 2025 gedeeltelijk van kracht, classificeert bepaalde AI-systemen als verboden of hoog-risico. Systemen die misbruik maken van kwetsbaarheden van mensen, gedragsmanipulatie inzetten of deepfake-technologie gebruiken zonder duidelijke disclosure, vallen onder de verboden categorieën. Het is dus erg belangrijk om manipulatie te voorkomen. Dus wanneer digital humans worden ingezet voor commerciële doeleinden en ontworpen zijn om menselijk gedrag te imiteren, moet er in ieder geval aan transparantieverplichtingen worden voldaan. Dit betekent onder andere:
- het duidelijk maken dat men met een AI-systeem te maken heeft;
- het bieden van informatie over de werking en beperkingen van het systeem;
- het vermijden van subliminale beïnvloeding of exploitatie van kwetsbaarheden.
Voor deepfake-toepassingen (zoals virtuele influencers met een realistisch gezicht, bijvoorbeeld van een bekend persoon) geldt bovendien een disclosure-plicht: gebruikers moeten ondubbelzinnig geïnformeerd worden dat de content door AI is gegenereerd. Zoals we ook al kennen dat grote platformen onder de Digital Services Act (DSA) verplicht zijn passende maatregelen nemen om gebruikers te waarschuwen voor deepfakes, zeker wanneer deze het publiek kunnen misleiden.
Influencerregels: reclamerecht
Virtuele influencers moeten zich houden aan transparantieverplichtingen uit de AVG. Voor zulke influencers gelden ook al specifieke transparantieverplichtingen onder de Reclamecode Social Media & Influencer Marketing (RSM), waarin staat dat volgers expliciet moeten worden geïnformeerd over de commerciële aard van een boodschap, dus ook als deze afkomstig is van een digitale entiteit. Het doet er juridisch niet toe of de boodschap afkomstig is van een mens of een AI-avatar. De gedraging en de commerciële context bepalen de juridische kwalificatie. Er zit altijd iemand achter het social media account van de virtuele influencers.
Het is een relevante en actuele vraag of dit expliciet moet worden opgenomen in de RSM. In de Verenigde Staten overweegt de Federal Trade Commission inmiddels om de definitie van “endorser” uit te breiden naar AI-persona’s, wat betekent dat ook virtuele influencers onder de disclosure-verplichtingen zouden vallen bij gesponsorde content.
Ethische overwegingen
De inzet van digital humans roept fundamentele ethische vragen op over representatie, transparantie en verantwoordelijkheid. Een belangrijk aandachtspunt is culturele toe-eigening en stereotypering. Wat betekent het als een merk een digitale merkambassadeur ontwikkelt met een bepaalde etnische of sociale identiteit, zonder dat die groep zelf betrokken is? Omdat digital humans volledig te programmeren zijn, kunnen zij onbewust bestaande ongelijkheden of stereotypen bevestigen in plaats van doorbreken.
Ook blijken virtuele influencers verrassend goed in staat tot het opbouwen van parasociale relaties: een gevoel van persoonlijke band dat lijkt op interactie met echte mensen. Ze promoten producten, beantwoorden vragen en wekken vertrouwen, terwijl ze volledig merkgestuurd zijn. Zonder duidelijke communicatie hierover bestaat het risico op misleiding.
Door de opkomst van synthetische data, VR/AR en generatieve AI vervaagt de grens tussen echt en digitaal nog sneller. Het wordt steeds moeilijker voor gebruikers om te herkennen dat zij met een kunstmatig systeem communiceren, laat staan te begrijpen hoe dit systeem werkt of welke belangen erachter zitten. Daarom pleiten experts voor een interdisciplinaire aanpak, waarin marketeers, ethici, juristen en ontwerpers samen zorgen voor een verantwoorde inzet van digital humans. Niet alleen op het gebied van non-discriminatie en transparantie, maar ook rond autonomie, sociale impact en controleerbaarheid.
Kansen en keuzes
De inzet van digital humans biedt veel kansen voor datagedreven marketing, maar vraagt ook om duidelijke keuzes: willen we dat AI-systemen relaties namens merken aangaan, en onder welke voorwaarden doen we dat verantwoord? Niet alles wat technologisch mogelijk is, is wenselijk of juridisch toegestaan.
Juist omdat deze digitale representaties steeds menselijker ogen en handelen, groeit ook de verwachting van transparantie, eerlijkheid en controle. Organisaties die gebruikmaken van AI-gegenereerde avatars of geautomatiseerde besluitvorming moeten daarom helder zijn over het ‘wie’ en ‘wat’ achter de interactie. Transparantie over het AI-karakter, de bron van de data en de logica achter personalisatie is niet alleen wettelijk verplicht (onder de AVG, AI Act en reclameregels), maar ook essentieel voor het behoud van consumentenvertrouwen. Wie digital humans inzet, doet er dus goed aan dit niet alleen als technische innovatie te benaderen, maar als een strategische, juridische en ethische verantwoordelijkheid.
Over de auteur: Allisha Hosli is Legal counsel bij DDMA.
Plaats een reactie
Uw e-mailadres wordt niet op de site getoond