-

Marketing in het tijdperk van AI: drie richtlijnen voor verantwoordelijke AI

Na een jaar van ‘experimenteren’ zijn steeds meer organisaties klaar om (generatieve) AI structureel in het marketingproces te integreren. Maar om dit op een verantwoorde manier te kunnen doen zijn richtlijnen nodig. In dit artikel zetten wij drie cruciale richtlijnen op een rij.

Het is in ieder geval duidelijk dat (generatieve) AI een disruptieve innovatie (vergelijkbaar met de komst van het internet) is, vanwege de ontelbare mogelijkheden die het biedt. Juist daardoor is extra aandacht voor de verantwoorde toepassing op zijn plaats. De nieuwe kansen van AI brengen namelijk ook risico’s voor consument en maatschappij met zich mee. Denk hierbij aan bias en onbedoelde discriminatie vanwege de gebruikte trainingsdata, én de impact van het trainen – door de gebruikte rekenkracht van datacenters – van een AI-model op het milieu. In dit artikel geven we onze visie op AI en drie cruciale richtlijnen om er verantwoord mee om te gaan.

Richtlijn 1 – Verantwoorde inzet van AI begint met de juiste organisatiecultuur

Het op een verantwoorde manier toepassen van AI is niet alleen een vraag voor een compliance-expert, een data scientist of een beveiligingsspecialist. De definitie van wat ‘verantwoord’ is, is deels ook een kwestie van perspectief. Zo zal een jurist wellicht zeggen dat ‘verantwoorde AI’ staat voor het naleven van regels, maar een CMO heeft het eerder over het beschermen en versterken van het imago of merk van de organisatie. Om echt te versnellen met innovatie is het daarom van belang om de juiste expertises bij elkaar te brengen. Met als doel elkaars belangen en taal beter te begrijpen, om vervolgens concrete oplossingen uit te werken. Afhankelijk van de grootte van je organisatie gaat het onder meer om marketing, legal, veiligheid, ethiek en IT. De vorm waarin de samenwerking plaatsvindt is vrij, maar dit kan bijvoorbeeld al één expertgroep in je organisatie zijn.

Nu is natuurlijk geen organisatie hetzelfde. De invulling van de juiste organisatiecultuur voor de inzet van AI is ook afhankelijk van de sector waarin je opereert. Zo wordt er binnen een bank waarschijnlijk anders (samen)gewerkt dan bij een non-profit. Stem de samenwerking daarom vooral ook af op wat past bij de organisatie, maar zorg dat je relevante teams wel met elkaar laat samenwerken op een continue basis. Het perspectief op wat de klant, je organisatie en ook de samenleving ‘verantwoord’ vinden, verandert gedurende de tijd.

De juiste organisatiecultuur legt niet alleen de basis om verantwoord te innoveren. Het geeft ook (deels) uitvoering aan een belangrijk toekomstige vereiste dat terugkomt in de AI Act: het bevorderen van ‘AI-geletterdheid’ (AI literacy) onder medewerkers. Met AI-geletterdheid wordt straks vereist dat organisaties het kennisniveau van medewerkers over AI verbeteren en op peil houden. Een medewerker moet namelijk geïnformeerde keuzes over de inzet van AI kunnen maken, zodat eventuele risico’s zoveel mogelijk worden vermeden. De opleidingseis geldt dus niet alleen voor de ontwikkelaar die het AI-systeem maakt, maar ook voor een marketeer die ermee werkt. Met de juiste organisatiecultuur als basis kun je het kennisaspect per definitie beter borgen, want alle teams leren in feite van elkaar. Door risico’s met behulp van AI-geletterdheid te mijden, bevordert een organisatie bovendien de verantwoorde inzet van AI.

Richtlijn 2 – Houd je aan de regels, zoals AI Act, privacy en auteursrechten

De ontwikkeling van AI kent een dynamisch en exponentieel karakter. Daarom zijn veel zaken nog niet helder op juridisch gebied. Toch zijn er zeker al regels waar je rekening mee dient te houden. Denk bijvoorbeeld aan het intellectueel eigendom (met name auteursrecht), het privacyrecht (de AVG), het contractenrecht, consumentenrecht, mensenrechten of sectorspecifieke regelgeving. Ook zijn zeer recent de AI-specifieke regels door Europa goedgekeurd: de AI Act. Het is van belang dat je als organisatie kennis hebt van deze regels en deze naleeft.

Richtlijn 3 – Verantwoordelijk AI gaat verder dan de regels, maar gaat juist óók om de ethische kaders

Als het gaat over verantwoordelijk AI dan komen organisaties meestal uit op een aantal principes. Het vaststellen van zo’n kader is maatwerk per organisatie, daarom is het voor ons als branchevereniging niet het doel een kant en klaar ‘AI-principe raamwerk’ te delen. Maar we moedigen onze leden aan om de richtlijnen als een startpunt voor een eigen ‘AI en marketing kader’ te gebruiken.

Een goed startpunt voor zo’n kader is het opzetten van de AI-organisatiecultuur zoals beschreven in de eerste richtlijn, want ieder vakgebied heeft een eigen kijk op verantwoordelijk AI. Zo kom je min of meer op een natuurlijke wijze tot een lijst van principes die past bij jouw organisatie of specifieke use-case. Om toch een idee te geven van de (ethische) AI-kaders, het gaat binnen de marketing om onderwerpen als:

  • Merk – Puur vanuit een marketingoogpunt is het beschermen van het imago en versterken van je merk altijd een goed startpunt. Zeker bij leden die leunen op hun merkidentiteit is het van belang om de impact van de ingezette AI op je merk en imago voorafgaand aan de livegang grondig te beoordelen. Dit vereist enige kennis en begrip van de risico’s die in meer detail in andere onderwerpen aan bod komen. We benadrukken daarom wederom het belang van een goede organisatiecultuur!
  • Personalisatie en consumentvertrouwen – Om de verantwoorde inzet van AI te bevorderen kunnen organisaties ook streven naar een evenwicht tussen personalisatie en privacy, waarbij het vertrouwen van de consument centraal staat. We zien transparantie en controle door de gebruiker als essentiële elementen om dit vertrouwen te bouwen en te behouden.
  • Vertrouwelijkheid – Medewerkers (en eventueel consumenten) hebben soms ook richtlijnen nodig over waarvoor AI wel of niet geschikt is. Dit is zeker relevant als het gaat om toepassingen als ChatGPT, waarin medewerkers ook vertrouwelijke bedrijfsinformatie als input kunnen gebruiken.
  • Bias en discriminatie – DDMA benadrukt het belang van het actief voorkomen van vooroordelen, bias en discriminatie in AI-toepassingen. Organisaties dienen voortdurend hun AI-modellen te evalueren en bij te stellen om eerlijkheid en inclusiviteit te garanderen, terwijl ze innovatie blijven nastreven.
  • Uitlegbaarheid en controleerbaarheid – Transparantie in AI-besluitvorming is essentieel. We adviseren onze leden om ‘zwarte-doos’-technologieën te vermijden en te zorgen voor begrijpelijke en controleerbare AI-systemen, die bijdragen aan vertrouwen en begrip bij zowel interne belanghebbenden als consumenten. Het bijhouden van logs kan helpen om besluiten uitlegbaar te maken, maar draagt ook bij aan de controleerbaarheid (door consumenten).
  • Transparantie – Consumenten hebben recht op en behoefte aan heldere informatie over de inzet van AI, inclusief hoe persoonsgegevens worden gebruikt. Deze transparantie versterkt het vertrouwen en faciliteert een verantwoorde interactie met AI-technologieën.
  • Robuust en veilig – De nadruk op de robuustheid en veiligheid van AI-systemen is van het grootste belang. Bij het ontwikkelen van eigen AI is het van belang om maatregelen te implementeren om AI-oplossingen te beschermen tegen fouten, aanvallen en datalekken, waarbij de integriteit en betrouwbaarheid van systemen worden gewaarborgd.
  • Bewaak menselijk vakmanschap en toezicht – Het is belangrijk om het belang van menselijk toezicht en vakmanschap bij de ontwikkeling, implementatie en gebruik van AI-systemen te erkennen. Dit principe benadrukt óók dat de uiteindelijke besluitvorming en ethische overwegingen bij mensen moeten liggen. Dit waarborgt dat AI-systemen menselijke waarden weerspiegelen. DDMA stelt bij dit principe ook vakmanschap centraal. Want hoe waarborg je specialistisch vakmanschap (van bijvoorbeeld een CRO’er) wanneer je ChatGPT taken laat overnemen (en moet je dit überhaupt willen)?
  • Verantwoording afleggen en databeleid – Oók verantwoording en beleid rond AI en data zijn van belang. Organisaties kunnen ervoor kiezen om duidelijke richtlijnen te hanteren voor het beheer van AI en data, met als doel transparantie en verantwoording af te leggen aan alle belanghebbenden. Het inrichten van databeleid is ook van belang voor de kwaliteit van AI. Zeker wanneer je AI ontwikkelt, is het van belang om je realiseren dat kwaliteit van output staat of valt met het op orde brengen van de datastrategie.
  • Duurzaamheid en maatschappelijke impact – Het is ook belangrijk om rekening te houden met de bredere sociale en ecologische impact van AI-technologieën. Het trainen van AI(-modellen) kan een aanzienlijke impact hebben op het milieu (vanwege energieverbruik). Ook kan AI van invloed zijn op medewerkers, wanneer hun baan inhoudelijk veranderd of overbodig wordt.
Gebruik de richtlijnen om je eigen kader op te stellen

Het voorgaande overzicht is een fundamentele illustratie van principes die kunnen worden meegenomen in het vormen van een solide kader om AI verantwoord in te zetten. Let wel op dat de omvang van het kader per organisatie behoorlijk kan verschillen. Als je bijvoorbeeld zelf een eigen AI ontwikkelt, brengt dat meer verantwoordelijk met zich mee dan ‘slechts’ het gebruik van generatieve-AI-tools als ChatGPT om efficiëntie te verhogen.

Bij de ontwikkeling van eigen AI moet je ook goed nadenken over met welke data er worden getraind. En bij ChatGPT gaat het in essentie ‘enkel’ om het waarborgen van vertrouwelijkheid, waarbij de regel ‘gebruik geen bedrijfsinformatie en persoonsgegevens in ChatGPT’ wellicht voldoende is. In de kern hangt het dus per case af van de vraag of AI intern als hulpmiddel wordt gebruikt óf dat klanten zelf direct interageren met AI.

Over de auteur: Frank de Vries is Senior legal counsel bij DDMA.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond