Vijf tips voor CISO’s om AI-agents in het gareel te houden
AI-agents hebben in 2025 massaal hun intrede gedaan in veel Nederlandse organisaties. Uit onderzoek Rubrik Zero Labs onder 1.625 IT-security beslissers bij bedrijven met 500 of meer medewerkers blijkt dat 89 procent van de respondenten AI-agents al volledig of gedeeltelijk heeft geïntegreerd in hun identiteitsinfrastructuur. Nog eens 10 procent is van plan om dit in te voeren. Deze AI-agents werken steeds autonomer, en krijgen vaker directe invloed op bedrijfskritische processen. Dat introduceert nieuwe risico’s voor CISO’s, want een AI-agent die zelfstandig beslissingen neemt, kan data, systemen of de continuïteit in gevaar brengen.
Gartner voorspelt dat meer dan 40 procent van de AI-agentprojecten tegen het einde van 2027 wordt stopgezet, omdat de risico’s te groot blijken of de kosten uit de hand lopen. Juist omdat AI-agents steeds meer zelfstandige bevoegdheden krijgen, is het cruciaal om de veiligheid en controle al vóór de inzet goed te regelen. Hoe zorg je er dan voor dat jouw AI-strategie wél toekomstbestendig is? Filip Verloy, CTO EMEA & APJ Rx bij cybersecurity en AI-bedrijf Rubrik, geeft vijf tips.
1. Bouw AI-systemen met veiligheid en herstelbaarheid als uitgangspunt
Zorg ervoor dat veiligheid en betrouwbaarheid vanaf het begin ingebouwd zijn volgens het ‘Secure by design’-principe. Dat betekent niet achteraf repareren, maar direct zorgen dat alles uitlegbaar en terug te draaien is. Veerkracht moet een vast onderdeel zijn van je aanpak, niet iets wat je later toevoegt.
2. Zorg dat je snel kunt herstellen
AI-agents gaan ongetwijfeld fouten maken en daar moet je op voorbereid zijn. Als een AI-agent de mist in gaat, wil je precies weten wat er is gebeurd én dat je het snel kunt herstellen. Alleen logbestanden bijhouden is niet voldoende. Je hebt effectieve tools nodig om terug te gaan naar het moment vóór de fout en zo de continuïteit van je systemen te waarborgen.
3. Bouw systemen die bestand zijn tegen meerdere storingen tegelijk
AI-agents werken vaak samen, en dan kunnen fouten zich razendsnel verspreiden. Zorg dat je systemen zo zijn ingericht dat één fout niet meteen overal problemen veroorzaakt. Isoleer agent-acties waar het kan en voorkom dat een kleine misser uitgroeit tot een groot probleem.
4. Geef AI-agents alleen toegang tot wat echt nodig is
AI-agents stoppen niet vanzelf met werken als er iets misgaat, maar kunnen juist ongecontroleerde acties ondernemen in een korte tijd. Recente incidenten tonen aan dat fouten van AI-agents uiteenlopende gevolgen kunnen hebben: van technische storingen en juridische problemen tot het per ongeluk verwijderen van volledige productie databases. Geef agents daarom alleen toegang tot wat ze echt nodig hebben, net zoals bij medewerkers, vooral wanneer ze werken met klantdata of kritieke bedrijfsprocessen.
5. Maak alles inzichtelijk en controleerbaar
Rubrik constateert uit gesprekken dat minder dan 10 procent van de bedrijven beschikt over tools of systemen om AI-activiteiten te onderzoeken. Zorg dat je het hele proces, van de eerste opdracht tot het eindresultaat, kunt volgen en controleren. Zo kun je altijd nagaan wat er is gebeurd, en waar nodig ingrijpen of acties terugdraaien.
“AI-agents falen op een manier die we niet eerder hebben gezien en dat vraagt om een compleet andere kijk op beveiliging. Het zijn zelfstandige, dynamische systemen. Alleen door proactief grenzen te stellen, het gedrag continu te monitoren en samenwerking tussen verschillende specialismen te stimuleren, kunnen organisaties de kracht van AI-agents veilig en effectief benutten. De bedrijven die de opkomst van AI-agents overleven, zijn degene die innovatie omarmen en voorbereid zijn op fouten. Nú is het moment om veerkracht op te bouwen, voordat AI-agents in paniek raken en verkeerde beslissingen nemen,” aldus Verloy.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.