Amsterdam, 29 juli 2025 – Uit onderzoek van Trend Micro, leider in cybersecurity, blijkt dat veel organisaties te maken hebben met AI-gerelateerde beveiligingsuitdagingen, waaronder onveilige AI-infrastuur. Het bedrijf roept IT-engineers en IT-leiders dan ook op om altijd best practices te volgen bij het ontwikkelen en implementeren van AI-systemen. Anders riskeren ze gegevensdiefstal, datavervuiling, ransomware en andere cyberaanvallen.
Rachel Jin, Chief Enterprise Platform Officer bij Trend: “AI is de kans van de eeuw voor organisaties. Maar het kan zijn dat bedrijven die te snel handelen zonder adequate beveiligingsmaatregelen te nemen, uiteindelijk meer kwaad doen dan goed. Zoals ons rapport laat zien, wordt er al te veel AI-infrastructuur gebouwd met onbeveiligde en/of ongepatchte onderdelen. Hierdoor wordt de deur wijd opengezet voor cybercriminelen.”
Het onderzoek gaat in op de volgende AI-gerelateerde beveiligingsuitdagingen:
- Kwetsbaarheden/exploits in kritieke onderdelen: organisaties die AI-applicaties willen ontwikkelen, implementeren en gebruiken, moeten gebruikmaken van gespecialiseerde softwareonderdelen en -frameworks. Deze kunnen echter kwetsbaarheden bevatten die ook in reguliere software-onderdelen voorkomen. Het rapport onthult verschillende zero-day-kwetsbaarheden en exploits in onder meer ChromaDB, Redis, NVIDIA Triton en NVIDIA Container Toolkit.
- Onbedoelde blootstelling aan het internet: kwetsbaarheden zijn vaak het gevolg van overhaaste ontwikkeling en implementatie of van AI-systemen die onbedoeld worden blootgesteld aan het internet. Trend heeft meer dan 200 ChromaDB-servers, 2000 Redis-servers en meer dan 10.000 Ollama-servers gevonden die zonder authenticatie aan het internet zijn blootgesteld.
- Kwetsbaarheden in open-sourcemodellen: veel AI-frameworks en -platforms gebruiken open-sourcesoftwarebibliotheken. Open-sourcemodellen kunnen echter kwetsbaarheden bevatten die uiteindelijk in productiesystemen terechtkomen. Tijdens het recente Pwn2Own-evenement van Trend ontdekten onderzoekers bijvoorbeeld een exploit voor de Redis-vectordatabase die voortkwam uit een verouderde Lua-component.
- Containergebaseerde zwakke punten: een groot deel van de AI-infrastructuur draait op containers. Onderzoekers hebben onder meer een exploit ontdekt voor de NVIDIA Container Toolkit. Om beveiligingsrisico’s als gevolg van kwetsbare containers te voorkomen, moeten organisaties invoer opschonen en runtime-gedrag monitoren.
Zowel de ontwikkelaarscommunity als zijn klanten moeten beveiliging en time-to-market beter in balans brengen om AI-gerelateerde beveiligingsrisico’s te beperken. Concrete stappen om dit te realiseren, zijn:
- Het verbeteren van patchbeheer en kwetsbaarheidsscans;
- Het bijhouden van een inventaris van alle softwareonderdelen, inclusief bibliotheken en subsystemen van derden;
- Het volgen van best practices voor beveiliging van containerbeheer, inclusief het gebruik van minimale basisimages en runtime-beveiligingstools;
- De inzet van configuratiecontroles om ervoor te zorgen dat AI-infrastructuurcomponenten zoals servers niet worden blootgesteld aan het internet.
Lees hier het volledige rapport.