AI en contentcreatie: transparantie en aansprakelijkheid bij reclame op sociale media
“Deze video is gegenereerd met hulp van AI” – is het verplicht om dit te vermelden bij (influencer)content op TikTok of Instagram?
Creators en marketeers experimenteren steeds vaker met AI-tools: van virtuele assistenten tot AI-gegenereerde video’s, beschrijvingen en zelfs deepfake-stemmen. Maar hoe transparant moet je zijn over AI-inzet? En wie is aansprakelijk als het misgaat?
In dit laatste artikel uit de DDMA-reeks over legal en AI onderzoeken we de juridische spelregels voor het gebruik van AI in reclame op sociale media, zoals influencermarketing. We bespreken de vereisten rond transparantie onder verschillende relevante kaders, zoals de AI Act, de Digital Services Act (DSA), de Mediawet, zelfregulering en het beleid van platformen. Verder geven we een aantal tips over de verantwoordelijkheid en aansprakelijkheid bij het inzetten van AI voor contentbewerkingen, en bij het gebruik van virtuele influencers.
Wat is AI-inzet in sociale media?
AI wordt op uiteenlopende manieren ingezet binnen sociale media. Denk bijvoorbeeld aan virtuele influencers die volledig door AI zijn gegenereerd, of aan echte influencers of contentmarketeers die AI gebruiken om hun content vorm te geven, zoals beeld, stem of tekst. Steeds vaker worden campagnes automatisch gepersonaliseerd met behulp van gedragsdata, waarbij AI bijvoorbeeld beschrijvingen of visuals aanpast op basis van de voorkeuren van de doelgroep.
Ook het selecteren van de juiste influencer gebeurt steeds vaker datagedreven. AI-tools analyseren dan het bereik, de engagement van een influencer en of de doelgroep past, maar kijken ook naar zaken als tone of voice, stijl en merkrisico’s. Met behulp van Natural Language Processing (NLP) kan zelfs worden beoordeeld of de communicatiestijl van een influencer aansluit bij het karakter van een merk. Deze toepassingen bieden nieuwe mogelijkheden voor merken en bureaus, maar roepen ook nieuwe vragen op over transparantie en verantwoordelijkheid. Niet alleen onder de AI Act, maar ook onder de Mediawet en de Reclamecode Social Media & Influencer Marketing (RSM) ontstaan juridische aandachtspunten.
Transparantie
Hoe ver gaan transparantieverplichtingen? Al jarenlang worden foto’s op sociale media bewerkt met filters, lichtcorrecties of retouches. Influencers en gebruikers bewerken hun beelden om net iets mooier, strakker of perfecter over te komen. Daar werd vaak weinig over gezegd. Met de komst van AI-tools is bewerken niet langer beperkt tot een gladde huid of witte tanden. Nu kunnen complete achtergronden, lichaamshoudingen, gezichten of zelfs hele personen worden gegenereerd of gemanipuleerd. De grens tussen echt en nep is aan het vervagen. Dit resulteert in een sterkere behoefte om duidelijkheid te krijgen over wat echt is en wat niet. Het is geen subtiele aanpassing meer, maar een tool die de realiteit herschrijft of vervangt. Juist daarom is openheid belangrijk, zodat iedereen kan weten waar ze naar kijken en bewustere keuzes kunnen maken over wat ze geloven en wat hen beïnvloedt.
AI Act: transparantie en manipulatieverbod bij beïnvloeding
De AI Act werkt risicogebaseerd. AI-inzet in marketing valt doorgaans onder beperkt risico of minimaal / geen risico. Bij een beperkt risico ben je verplicht om te informeren dat er AI is ingezet, zodat de consument hiervan op de hoogte is. Dit kan bijvoorbeeld door het toevoegen van een duidelijke zin in de communicatie of een watermerk in de metadata.
Risicocategorie |
Voorbeelden marketingpraktijken |
Verplichtingen |
Geen tot minimaal risico | Automatisch posts inplannen, basis statistiek, teksten en afbeeldingen (die niet misleidend zijn) bewerken en genereren, en personalisatiegegevens bijhouden. | Geen extra verplichtingen |
Beperkt risico | Chatbots, deepfake marketing (GenAI voor advertenties: als afbeeldingen/video’s van bestaande personen worden gemanipuleerd). | Transparantieverplichtingen, deepfake-content labeling |
Let op: als AI wordt ingezet om gedragingen te beïnvloeden op een manier die onderbewust, misleidend of uitbuitend is, kan de toepassing onder het verbod op manipulatie vallen. Denk bijvoorbeeld aan AI die emoties detecteert en daarop real-time content aanpast, of AI die gebruikmaakt van kwetsbaarheden zoals leeftijd of mentale gesteldheid. Het verschil tussen ‘inspireren’ en ‘manipuleren’ is dun, maar juridisch gezien zeer belangrijk.
Verder is het relevant dat de AI Act ruimte biedt voor journalistieke AI-toepassingen – bijvoorbeeld via uitzonderingen op de labelplicht – zodat de journalistieke onafhankelijkheid en het redactionele proces niet onbedoeld door EU-regels worden ingeperkt.
Vermelding geautomatiseerde systemen in de DSA
De DSA verplicht niet direct tot het benoemen van “AI” in de content, maar wel tot transparantie over geautomatiseerde systemen die invloed hebben op zichtbaarheid, targeting of interactie, en dat omvat in de praktijk veel AI-toepassingen. Dus als het systeem gedrag beïnvloedt of content selecteert, moet je uitleggen hoe het werkt en waarom iemand iets ziet. Deze verplichting rust voornamelijk op de sociale platformen zelf.
Vermeldingen influencermarketing
Voor influencermarketing kennen we de Reclamecode Social Media & Influencer Marketing (RSM) en de Mediawet. Deze regels en de AI Act hebben een ander toepassingsgebied, maar ze raken elkaar zodra AI wordt ingezet in de mediasector. De Mediawet reguleert wat media-instellingen doen (inhoud en diversiteit van aanbod, onafhankelijkheid, publieke functies), terwijl de AI Act reguleert hoe AI-systemen ontwikkeld en gebruikt mogen worden. Volgens de Mediawet en de Reclamecode Social Media & Influencer Marketing moet elke gesponsorde content herkenbaar zijn als reclame.
Maar hoe zit het als die content (deels) door AI is gegenereerd? Zowel de Mediawet als de RSM zeggen in feite: dat iets een commerciële uiting is moet je expliciet duidelijk maken, ongeacht of AI daarbij is gebruikt of niet. Transparant zijn over AI-gebruik als zodanig is dus geen losse vereiste. Maar het kan wel noodzakelijk zijn om extra transparantie te bieden bij verwarring of misleiding (bijvoorbeeld bij deepfake-influencers).
De RSM bevat een verbod op het gebruiken van valse of niet-bestaande identiteiten. It is niet hetzelfde als een verbod op virtuele influencers. Vallen ze dan wel onder de reclameregels als een virtuele entiteit? Ja, ze vallen onder het begrip ‘verspreider’, aangezien ze reclame kunnen verspreiden via een account wat geen bedrijfsaccount is. Aangezien er altijd iemand verantwoordelijk moet kunnen worden gehouden, zal het gaan om de eigenaar of het bedrijf dat het account van de virtuele influencer beheert en daadwerkelijk reclame verspreidt. Voor hen gelden de reclameregels uit de code.
Beleid socialemediaplatformen: ‘AI-info label’
Ook socialemediaplatformen zelf hebben beleid op transparantie bij het inzetten van AI. Meta (Instagram & Facebook) identificeert en labelt content die is gemaakt of aangepast met AI-tools om transparantie te bevorderen. Wanneer content AI-signalen bevat, bijvoorbeeld als een foto is aangepast met AI om de grootte of kleur te veranderen, kunnen Meta’s systemen dit detecteren en wordt het automatisch voorzien van een AI-label. Dit label verschijnt bij content die is gecreëerd met AI, terwijl content die enkel is aangepast met AI doorgaans geen zichtbaar label krijgt, maar wel AI-informatie via het menu.
Video’s van echte situaties en AI- gegenereerde audio, zoals een lied met AI-stemmen of een reel met een realistische AI-voiceover, vereisen ook een label. Maar beelden zoals cartoons of AI-bewerkte foto’s van personen zijn doorgaans niet labelplichtig, al kunnen ze alsnog gelabeld worden als systemen detecteren dat AI is gebruikt. Gebruikers kunnen natuurlijk ook zelf hun AI-gegeneerde content labelen.
Ook TikTok zet zich in voor transparantie rond AI-gegeneerde content en verplicht creators om hun creaties duidelijk te labelen. De richtlijnen vereisen dat realistisch ogende beelden, audio of video duidelijk als AI-content worden gemarkeerd. TikTok kan niet-gelabelde AI-content verwijderen en het verkeerd toepassen van labels kan leiden tot sancties. Het platform gebruikt ook automatische detectie en labelt AI-content die is geüpload vanaf andere platformen met metadata (“Content Credentials”). Deze metadata zorgen ervoor dat AI-gegenereerde content herkenbaar blijft, zelfs als ze worden gedownload en ergens anders worden gedeeld. Platformen die dezelfde standaarden gebruiken, kunnen deze content dus automatisch herkennen en labelen. Daarom is het belangrijk om te zorgen dat de Content Credentials intact blijven.
Aansprakelijkheid: wie is er verantwoordelijk als AI-content schade toebrengt?
De AI Act kent een verdeling in rollen: aanbieder, gebruiker en distributeur. In influencermarketing zijn dat bijvoorbeeld:
- Het merk (gebruiker)
- Het bureau (soms mede-gebruiker of distributeur)
- De influencer (distributeur of gebruiker)
- De AI-tool (aanbieder)
Bij misleiding, discriminatie of privacyschending kan elk van deze partijen verantwoordelijk zijn, afhankelijk van de feiten en de contractuele afspraken. Denk aan: wie bepaalde het script? Wie koos de AI-tool? Welke controle is er geweest vóór het online plaatsen? Zorg dus voor duidelijke afspraken, bij voorkeur contractueel vastgelegd. Denk aan: Wie is verantwoordelijk bij AI-fouten, schendingen of datalekken? Moet AI-gebruik vooraf worden gemeld aan merken?
Authenticiteit
Content op sociale media en vooral influencermarketing draait om authenticiteit: het gevoel dat een aanbeveling écht vanuit de persoon zelf komt. Tegelijkertijd bevinden we ons op sociale media in een continue stroom van persoonlijke en commerciële content, waarbij het verschil niet altijd even duidelijk is. Hoewel consumenten zich daar steeds bewuster van worden, is het lang niet altijd vanzelfsprekend dat een post reclame bevat.
Daarom is expliciete herkenbaarheid, zoals een duidelijke #ad of #reclame-vermelding, essentieel. Met het gebruik van AI wordt die scheidslijn nog onduidelijker: als content automatisch wordt gegenereerd, verdwijnt het persoonlijke karakter meer naar de achtergrond. AI kan bijvoorbeeld heel overtuigend de tone of voice van een influencer overnemen dat een commerciële boodschap naadloos verweven raakt met de rest van iemands feed, zonder dat het als promotie wordt herkend. Juist daarom is het belangrijk om transparant te zijn over zowel de commerciële relatie als over de inzet van AI, wanneer dat verwarring kan oproepen. Alleen zo blijft het vertrouwen in de influencer en het merk behouden.
Best practices voor AI en influencermarketing
AI biedt influencers en merken ongekende creatieve vrijheid maar brengt ook juridische verantwoordelijkheden met zich mee. Transparantie, zorgvuldigheid en goede afspraken zijn de sleutel om compliant én geloofwaardig te blijven.
Om AI verantwoord in te zetten binnen influencer marketing, zijn er een aantal praktische richtlijnen die je kunt volgen. Zo is het belangrijk om alleen gebruik te maken van AI-tools waarvan je goed begrijpt hoe ze werken en op welke data ze zijn getraind. Maak daarnaast duidelijke afspraken in contracten over het gebruik van AI, wie verantwoordelijk is voor de inhoud, en wanneer transparantie vereist is. Zorg er ook voor dat iedereen die met AI werkt voldoende is opgeleid in de juridische en ethische aandachtspunten.
En tot slot: als AI wordt ingezet voor het maken van tekst, beeld of stem, zorg dan dat dit op een begrijpelijke en zichtbare manier wordt vermeld, zeker als er verwarring kan ontstaan over de herkomst of authenticiteit van de content. Want ook in een wereld van deepfakes en virtuele influencers geldt: eerlijk duurt het langst.
Over de auteurs: Allisha Hosli en Sara Mosch zijn beiden Legal counsel bij DDMA.
Over deze serie – Het idee achter de AI-&-Legal-artikelenreeks is om meer inzicht te geven in hoe AI zich verhoudt tot bestaande wetgeving die relevant is voor de (datagedreven) marketingsector. We gaan in op thema’s en onderwerpen als privacy, auteursrecht, reclamerecht (influencermarketing), cookies, platformen en cybersecurity, allemaal in relatie tot AI. Zo kijken we verder dan alleen de AI Act, zodat we kunnen beschrijven wat relevant is voor onze leden.
Plaats een reactie
Uw e-mailadres wordt niet op de site getoond