-

AI en cybersecurity: hoe je AI veilig en ‘compliant’ inzet

Een AI-marketingtool die ongemerkt gevoelige klantdata lekt. Een phishing-aanval die via AI automatisch gepersonaliseerde e-mails verstuurt uit naam van de CEO. Of een AI-model dat per ongeluk getraind blijkt te zijn op vertrouwelijke interne documenten.

Cybersecurityrisico’s zijn er in alle vormen en ze nemen toe naarmate AI steeds meer wordt ingezet. Juist daarom is het extra belangrijk voor marketeers om op de hoogte te zijn van de regels rond cybersecurity bij het inzetten van AI.

In dit vijfde artikel in de DDMA-reeks over Legal en AI bespreken we hoe je deze veiligheidsrisico’s herkent, aan welke wettelijke en normatieve kaders je moet voldoen, en hoe je AI op een veilige manier inzet in je organisatie. Welke beveiligingsmaatregelen kun je treffen en welke standaarden zijn hiervoor belangrijk? Wat wordt er van organisaties verwacht, wat verandert er met NIS2, en hoe zorg je dat je marketingpraktijken veilig blijven?

Wat zijn de grootste veiligheidsrisico’s van AI?

AI-systemen hebben vaak een ‘zwarte-doos’-karakter: het is niet altijd transparant hoe beslissingen tot stand komen, welke data worden verwerkt, of waar die data uiteindelijk terechtkomen. Dit vergroot de kwetsbaarheid voor cyberincidenten en onbedoelde blootstelling van gevoelige informatie. AI-systemen brengen dus nieuwe risico’s met zich mee die je in traditionele IT-beveiliging niet altijd ziet. Enkele voorbeelden:

  • ‘Data poisoning’ – Aanvallers manipuleren trainingsdata waardoor het model verkeerde beslissingen neemt, bijvoorbeeld door foute klantdata toe te voegen via feedbackloops.
  • ‘Model leakage’ – Een model genereert output die (onbedoeld) vertrouwelijke input verraadt, bijvoorbeeld als gevoelige klantinformatie in prompts wordt gebruikt.
  • ‘Prompt injection’ – Slimme gebruikers ‘misleiden’ het model om buiten de bedoelde instructies te treden.
  • Onbeveiligde integraties – AI-tools met open API’s of toegang tot andere systemen kunnen onbedoeld kwetsbaarheden introduceren als toegangsbeheer ontbreekt.

Voor marketeers betekent dit concreet risico’s op:

  • Reputatieschade door gemanipuleerde of onbetrouwbare AI-output
 – AI-modellen kunnen worden gemanipuleerd via data poisoning of prompt injection, waardoor ze ongepaste, misleidende of discriminerende content automatisch genereren. Dit kan leiden tot verkeerde communicatie richting klanten, zoals een onjuiste tone of voice of oneerlijke segmentatie. Dit kan ten koste gaan van je reputatie en het vertrouwen van de consument in je merk.
  • Datalekken 
– AI-systemen verwerken vaak grote hoeveelheden gevoelige informatie. Bij datalekken in cybersecurity draait het niet alleen om privacy, maar om de continuïteit en veiligheid van digitale processen. Een datalek kan dus ook veel impact hebben zónder dat er persoonsgegevens zijn gelekt, bijvoorbeeld wanneer inloggegevens, campagne-instellingen, gevoelige communicatie, bedrijfsgevoelige documenten of financiële informatie gelekt worden.
  • Onbedoelde toegang – Marketingteams maken vaak gebruik van een combinatie van externe tools en platforms, zoals CRM-systemen, e-mail automation, trackingsoftware, webanalytics en personalisatietools. Wanneer AI-componenten hieraan worden toegevoegd, bijvoorbeeld om klantdata te analyseren of campagnes automatisch aan te passen, ontstaat een keten van systemen die data met elkaar delen. Als één van die schakels onvoldoende beveiligd is, kan dat leiden tot onbedoelde toegang tot systemen en gevoelige informatie.
  • Onduidelijkheid over verantwoordelijkheid – Veel marketingafdelingen werken samen met bureaus of freelancers die AI inzetten voor taken zoals contentcreatie, targeting, advertentieoptimalisatie of klantanalyse. Ook al voeren deze partijen de taken uit, de verantwoordelijkheid voor cyberveiligheid en compliance blijven bij de verwerkingsverantwoordelijke (meestal de opdrachtgever). Het maken van afspraken over datagebruik, beveiliging, opslaglocaties en modeltraining is dus noodzakelijk (in een verwerkersovereenkomst).

Voorbeeld:  OmniGPT, een AI-tool voor tekstgeneratie, werd in 2025 getroffen door een datalek waarbij gegevens van 30.000 gebruikers werden blootgesteld. De gelekte informatie omvatte e-mailadressen, telefoonnummers en miljoenen regels aan gebruikersinteracties met AI-modellen. Deze gegevens werden openbaar gemaakt op een hackersforum, wat aanzienlijke risico’s met zich meebracht voor gebruikers en de reputatie van het bedrijf.

Cybersecuritywetten in Europa en Nederland

Iedereen in het bedrijfsleven heeft inmiddels wel van NIS2 gehoord. Maar wat is de huidige stand van zaken en hoe worden de regels uit deze Europese richtlijn in Nederland toegepast? De Network- and Information Security 2-Richtlijn is op 16 januari 2023 officieel in werking getreden. Het was de bedoeling dat de nationale wetgevers van de EU-lidstaten de NIS2 zouden omzetten naar nationaal recht vóór 17 oktober 2024. Het merendeel van de EU-lidstaten, waaronder Nederland, heeft deze deadline niet gehaald.

Dat betekent dat de organisaties die onder de NIS2 vallen krijgen daardoor wél bepaalde rechten, maar hebben nog geen verplichtingen. Deze zullen namelijk naar verwachting pas gelden vanaf het tweede kwartaal van 2026. Er is wel al veel duidelijk over hoe de regels er in Nederland eruit gaan zien, aangezien de Cyberbeveiligingswet en het Cyberbeveiligingsbesluit (uitvoeringsregels) al door de consultatieperiode heen zijn.

Naast NIS2 zijn er meer EU-cybersecurityregels: de Cybersecurity Act, die een kader biedt voor (nu nog) vrijwillige certificering van ICT-producten; de Cyber Resilience Act voor slimme apparaten zoals slimme advertentie-displays of kiosken; en Digtial Operational Resilience Act (DORA) voor de financiële sector (dus niet relevant voor de marketingsector). Deze wetten of verordeningen zijn, in tegenstelling tot de NIS2-richtlijn, wel direct van toepassing in alle EU-lidstaten (dus ook in Nederland) en brengen meteen rechten en plichten met zich mee voor betrokken organisaties. Samen versterken deze regels de cyberveiligheid in Europa.

Welke organisaties vallen onder de NIS2 en wat betekent dit?

De EU-richtlijn voor netwerk- en informatiebeveiliging (NIS2) verplicht “essentiële” en “belangrijke” entiteiten tot het nemen van beveiligingsmaatregelen en het melden van incidenten. Essentiële entiteiten zijn organisaties uit sectoren met een kritieke rol in de economie of samenleving. Denk aan energie, transport, digitale infrastructuur, etc. Belangrijke entiteiten bevat sectoren die in toenemende mate afhankelijk zijn van digitale systemen. Denk aan post- en koeriersdiensten, afvalbeheer, digitale platforms en e-commerce, online marktplaatsen, zoekmachines, cloud- en softwareleveranciers. Bij beide entiteiten geldt de drempel: minimaal vijftig medewerkers óf tien miljoen euro omzet.

De wet verplicht onder andere tot:

  • Risicobeheersing en controleerbaarheid van systemen, inclusief AI.
  • Versleuteling, toegangsbeheer en logregistratie.
  • Melding van incidenten binnen 24 uur aan de toezichthouder. In Nederland wordt de Rijksinspectie Digitale Infrastructuur (RDI) aangewezen als toezichthouder op de Cyberbeveiligingswet.
  • Verificatie van leveranciersbeveiliging, inclusief softwareleveranciers.
  • Registratie bij het Nationaal Cyber Security Centrum (NCSC).

AI-systemen vallen nadrukkelijk binnen de scope van deze wet, dus ook tools die worden gebruikt door marketingteams, zoals AI-gestuurde segmentatie, contentgeneratie of targeting behoren tot je beveiligingsbeleid. Juist vanwege de kritieke rol van deze organisaties én de mogelijke risico’s die AI met zich meebrengt is het extra belangrijk om zorgvuldig om te gaan met de NIS2-verplichtingen, net zoals de regels uit de AI Act.

AI Act: risicogericht

De AI Act verplicht aanbieders en gebruikers van AI-systemen om risico’s te beheersen. Voor hoog-risico-toepassingen gelden zware verplichtingen: risicobeoordeling, menselijk toezicht, technische documentatie, en data governance. Denk aan AI die beslissingen neemt met als gevolg bepaalde rechtsgevolgen voor de gebruiker, zoals over krediet, zorg of werk. In marketing is daarvan zelden sprake, maar ook beperkt-risico-toepassingen, zoals chatbots of AI-gegenereerde advertenties, kennen verplichtingen rond transparantie en veiligheid. Als je bijvoorbeeld een AI-tool gebruikt om automatisch advertenties op te stellen op basis van klantdata, moet je kunnen uitleggen welke input gebruikt is (zoals demografie, gedrag).

Zowel de AI Act als de NIS2-richtlijn kennen een zorgplicht. De AI Act verplicht aanbieders en gebruikers van AI tot het identificeren, beperken en documenteren van risico’s, vooral bij hoog- en beperkt risico-toepassingen. Dat raakt direct aan de NIS2-zorgplicht, waarin organisaties passende technische en organisatorische maatregelen moeten treffen om risico’s op cyberincidenten te beperken, zoals monitoring, toegangsbeheer en versleuteling. Waar de AI Act focust op de werking en betrouwbaarheid van AI-systemen zelf, ziet de NIS2-zorgplicht juist op de brede weerbaarheid van digitale processen. Voor organisaties die AI gebruiken in hun bedrijfsvoering, zoals marketingteams, betekent dit: dubbel werk is niet nodig, maar afstemming wel.

Welke normen gelden?

AI-specifieke normen zijn in opkomst. De belangrijkste:

  • ISO27001-certificering voor informatiebeveiliging.
  • ISO/IEC 42001. AI-managementsysteem: deze ISO-norm biedt een kader voor het verantwoord beheren van AI-risico’s en het opbouwen van vertrouwen. De norm is gebaseerd op het PDCA-model (Plan-Do-Check-Act) en sluit goed aan op bestaande normen zoals ISO/IEC 27001, wat integratie makkelijker maakt voor organisaties. Het is gericht op transparantie, ethiek, risicobeoordeling en continue verbetering. Onder deze ISO-normering is het verplicht om een AI Impact Assessment (ASIA) als een formele AI-impactanalyse, vergelijkbaar met een DPIA onder de AVG, uit te voeren. 
Naast ISO/IEC 42001 zijn er aanvullende standaarden die specifieke aspecten van AI adresseren:
  • ISO/IEC 22989 definieert AI-concepten en terminologie.
  • ISO/IEC 23053 biedt een raamwerk voor AI-systemen die Machine Learning gebruiken.
  • ISO/IEC 23894 richt zich op risicomanagement voor AI.
  • ISO/IEC TR 24027 behandelt bias in AI-systemen en besluitvorming.

Gebruik een of meerdere van de onderstaande impact assessments om risico’s van AI-systemen in kaart te brengen vóór het wordt ingezet, om te bepalen welke beveiligingsmaatregelen nodig zijn en om te voldoen aan de regels:

  • AI Impact Assessment (ASIA) door de Rijksoverheid – Aanbevolen assessment voor kritieke AI-toepassingen om de impact op individuen te analyseren en om te helpen risico’s te beheersen. Dit is een veelgebruikt algemeen model voor het in kaart brengen van de risico’s en effecten.
  • ALTAI Assessment – Checklist voor zelfevaluatie om te helpen bij het toepassen van de zeven kernvereisten van de EU voor betrouwbare AI.:
  • Ethical Impact Assessment (EIA) door UNESCO – Dit beoordeelt ethische risico’s zoals bias, autonomie en maatschappelijke impact.
  • Fundamental Rights Impact Assessment (FRIA) – Dit analyseert risico’s op schending van grondrechten (aanbevolen onder de AI Act).
  • Conformity Assessment – Alleen bij hoog-risico-systemen, om te controleren of een AI-systeem aan alle eisen van de AI Act voldoet.
  • Microsoft Responsible AI Impact Assessment Guide (pdf) – Praktische gids vanuit een techleverancier gericht op bedrijven, met focus op risicoanalyse, datagebruik en governance (minder aandacht voor de gebruiker).
Hoe zorg je dat je organisatie ‘compliant’ is?
  • Breng in kaart welke AI-systemen gebruikt worden


Stel een intern AI-register op, vergelijkbaar met het verwerkingsregister over de persoonsgegevens van klanten onder de AVG. Leg per tool en systeem vast: het gebruiksdoel, de risico’s, de data-input en de gebruikte infrastructuur. Dit is niet alleen nuttig voor je eigen overzicht, maar ook om aan je documentatieplicht te voldoen bij toezicht of in geval van een datalek: zo kun je aantonen dat er vooraf is nagedacht over risico’s en maatregelen zijn genomen.

  • Zorg voor technische én organisatorische beveiligingsmaatregelen


Denk aan toegangsbeheer, encryptie, logregistratie, periodieke audits en software-updates. Zorg er bijvoorbeeld voor dat alle gegevens, zowel in transit (bij verzending via het netwerk) als at rest (opgeslagen op de server), versleuteld zijn. Check ook altijd waar AI-modellen worden gehost, want het is belangrijk dat dit op privacyconforme infrastructuur wordt gedaan, bij voorkeur op servers binnen de EU. Beveilig toegang tot AI-systemen met tweefactorauthenticatie (2FA) om ongeautoriseerde toegang door onbevoegde medewerkers (“never trust, always verify”- principe) of derden te voorkomen. Verwerk AI-gebruik in je bestaande informatiebeveiligingsbeleid, ook dit draagt weer bij aan de vereiste documentatie.

  • Melden datalekken en incidenten

Meld incidenten en datalekken binnen 24 uur bij de RDI. Afhankelijk van de aard van het incident moet je mogelijk ook andere toezichthouders informeren, zoals de Autoriteit Persoonsgegevens (AP) als er persoonsgegevens zijn getroffen.

In de praktijk is er vaak overlap tussen de AVG en NIS2. Bijvoorbeeld: bij een ransomware-aanval waarbij persoonsgegevens zijn buitgemaakt, ben je verplicht om zowel de AP als de RDI te informeren. Ook kan het nodig zijn om klanten of het publiek te informeren. Als een incident grote impact heeft, kan externe communicatie verplicht zijn, afhankelijk van ernst en risico’s.

  • Werk met betrouwbare leveranciers

Controleer of de leveranciers van de AI-systemen die je organisatie inzet beschikken over de juiste ISO-certificeringen, waar hun hosting plaatsvindt, welke afspraken er zijn over datagebruik en of je datatraining kunt weigeren. Duidelijke contractvoorwaarden over deze onderwerpen zijn belangrijk voor compliance en controle.

  • Voer een ‘impact assessment’ uit bij kritieke AI-toepassingen


Kritieke toepassingen zijn AI-systemen die direct contact hebben met consumenten of directe impact kunnen hebben op hen, bijvoorbeeld in klantacceptatie, prijspersonalisatie of klantenservice. Voer voor deze toepassingen een of meerdere Impact Assessments uit om risico’s te beoordelen en te documenteren.
Verhoog de AI-geletterdheid binnen het team
NIS2 en de AI Act benadrukken beiden dat medewerkers moeten begrijpen hoe AI werkten welke risico’s dat oplevert. Ook marketeers moeten de basisprincipes van veilige AI kunnen toepassen. Zorg dus dat jij en je collega’s de juiste trainingen volgen, met aandacht voor juridische, ethische en technische kaders. Gebruik daarvoor het vierstappenmodel uit de ACM-richtlijn en het AI-geletterdheidstappenplan van DDMA.

  • Wijs een AI-officer aan en richt een werkgroep op

Het aanstellen van een AI-officer is geen verplichting maar wel een best practice, dit kan dezelfde persoon zijn als de FG. Deze functionaris monitort dan AI-gebruik, toetst nieuwe tools, en werkt nauw samen met IT en Legal. Maar ook met de verantwoordelijke voor cybersecurity binnen je organisatie: meestal de Chief Information Security Officer (CISO). Het is handig om een interne werkgroep op te zetten met deze diverse functieprofielen, dus van technici en creatievelingen tot juristen en management. Juist op het gebied van cybersecurity is deze multidisciplinaire samenwerking van groot belang, bijvoorbeeld bij het uitvoeren van gezamenlijke impact assessments, risicoanalyses en evaluaties.

Cyberveiligheid is ook marketingverantwoordelijkheid

De veilige inzet van AI is niet alleen een IT-zaak. Juist in marketing, waar AI-tools snel en creatief worden toegepast, is bewustwording cruciaal. Een datalek, verkeerde output of onduidelijke toolingkeuze kan reputatieschade veroorzaken of zelfs leiden tot claims. Door AI-beveiliging mee te nemen in je marketingpraktijk – van toolkeuze tot training – bouw je niet alleen vertrouwen op bij je klanten, maar voldoe je ook aan de eisen van de wet. Cyberveiligheid is dus niet alleen een compliance-doel, maar ook een strategisch voordeel.

Over de auteurs: Allisha Hosli en Sara Mosch zijn beiden Legal counsel bij DDMA.

Over deze serie – Het idee achter de AI-&-Legal-artikelenreeks is om meer inzicht te geven in hoe AI zich verhoudt tot bestaande wetgeving die relevant is voor de (datagedreven) marketingsector. We gaan in op thema’s en onderwerpen als privacy, auteursrecht, reclamerecht (influencermarketing), cookies, platformen en cybersecurity, allemaal in relatie tot AI. Zo kijken we verder dan alleen de AI Act, zodat we kunnen beschrijven wat relevant is voor onze leden.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond