Industry Wire

Geplaatst door KnowBe4

KnowBe4-onderzoek: Incidenten met AI-applicaties nemen met 43% toe, terwijl governance en toezicht achterblijven

Utrecht, 19 januari 2026 – Het gebruik van AI binnen organisaties leidt tot een snelle toename van nieuwe cyberrisico’s. Het afgelopen jaar nam het aantal beveiligingsincidenten met AI-applicaties met 43% toe, waarmee AI de op één na grootste groeifactor is in het dreigingslandschap, direct na e-mail. Dat blijkt uit nieuw wereldwijd onderzoek van KnowBe4 onder 700 cybersecurity-leiders en 3.500 medewerkers.

AI als nieuw en moeilijk te controleren aanvalsvector
De snelle opkomst van generatieve AI, autonome AI-agents en AI-gedreven workflows introduceert nieuwe risico’s voor organisaties. Medewerkers uploaden gevoelige documenten naar AI-tools, AI-systemen kunnen worden gemanipuleerd en cybercriminelen zetten zelf AI in om aanvallen overtuigender en schaalbaarder te maken. Cybersecurity-leiders ervaren de gevolgen direct: 45% noemt het bijhouden van voortdurend evoluerende AI-gedreven dreigingen hun grootste uitdaging bij het beheersen van menselijk gedrag.

Deepfakes en AI-misbruik nemen toe
AI speelt ook een steeds grotere rol in social engineering-aanvallen. 32% van de organisaties rapporteerde het afgelopen jaar een toename van incidenten met deepfakes. Deze technologie wordt onder meer ingezet voor stem- en identiteitsvervalsing, waardoor aanvallen persoonlijker en geloofwaardiger worden.

Medewerkers zijn zich bewust van dit risico. 86% geeft aan zich zorgen te maken over misleiding via deepfakes, bijvoorbeeld om toegang te krijgen tot systemen of vertrouwelijke informatie.

Hoewel training en e-mailbeveiliging vaak worden ingezet om AI-risico’s te beperken, blijft technische detectie achter. Slechts 35% van de organisaties heeft technologie geïmplementeerd om deepfakes te detecteren. Hierdoor blijven veel AI-gedreven aanvallen onopgemerkt of worden ze pas laat ontdekt.

‘Shadow AI’ groeit door governance-kloof
Hoewel 98% van de organisaties aangeeft stappen te hebben genomen om AI-gerelateerde cyberrisico’s te beheersen, ervaren veel medewerkers beperkingen in de praktijk. Slechts 26% zegt snel toegang te krijgen tot de AI-tools die zij nodig hebben voor hun werk. Meer dan de helft (56%) vindt dat toegang te traag is of volledig ontbreekt.

Deze governance-kloof stimuleert risicovol gedrag: 17% van de medewerkers geeft aan AI-tools te gebruiken zonder toestemming van IT- of securityteams. Dit zogeheten shadow AI vergroot het risico op datalekken, oversharing van gevoelige informatie en onzichtbare manipulatie van AI-agents.

AI vraagt om uitbreiding van Human Risk Management
Volgens het onderzoek is AI niet alleen een externe dreiging, maar ook een interne risicofactor die direct samenhangt met menselijk gedrag. Zonder duidelijke richtlijnen, real-time begeleiding en zicht op gebruik verschuift kritisch werk naar onzichtbare, hoog-risico omgevingen.

“De productiviteitswinst die AI oplevert is te groot om te negeren. De toekomst van werk vraagt daarom om een naadloze samenwerking tussen mens en AI,” zegt Javvad Malik, Lead CISO Advisor bij KnowBe4. “Medewerkers en AI-agents zullen in harmonie moeten samenwerken, ondersteund door een beveiligingsprogramma dat de risico’s van beide proactief beheert. Human Risk Management moet zich uitbreiden naar de AI-laag, voordat kritieke bedrijfsprocessen verschuiven naar hoog-risico platforms waar geen adequaat toezicht op is.”

Over het onderzoek
Het rapport ‘The State of Human Risk 2025: The New Paradigm of Securing People in the AI Era’ is gebaseerd op onafhankelijk onderzoek van Arlington Research onder 700 cybersecurity-leiders en 3.500 medewerkers wereldwijd, verspreid over meerdere sectoren en landen.

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht