Industry Wire

Geplaatst door Wiz

Onderzoek Wiz: AI-adoptie in cloud-omgevingen neemt snel toe en vraagt om aanpassingen security-strategie

Meer dan 85 procent van de organisaties maakt inmiddels gebruik van AI in cloud-omgevingen. Daarmee heeft er een grote verschuiving plaatsgevonden van experimenten op kleine schaal naar wijdverbreid operationeel gebruik. Dit blijkt uit de tweede editie van het rapport ‘State of AI in the Cloud’ van Wiz. De toenemende inzet van AI markeert daarbij een nieuwe fase, waarbij het beveiligen van AI-infrastructuur een nieuwe blik op de bijbehorende risico’s vereist. Inzicht in hoe gegevens en modellen moeten worden beschermd is daarbij essentieel voor succes. Daarnaast laat het rapport zien dat 8 van de 10 meest populaire gehoste AI-technologieën verbonden zijn met open-source modellen. Tools zoals LangChain, Hugging Face en Llama zijn niet meer weg te denken uit moderne AI-stacks.

Open-source AI-tools staan volgens het onderzoek van Wiz centraal bij cloud-innovatie. De snelle acceptatie ervan verandert de manier waarop organisaties AI bouwen, implementeren en opschalen. Het beveiligingslandschap moet daarbij echter net zo snel meegroeien, vooral gezien het dynamische en decentrale karakter van open-source-ecosystemen.

“De AI-revolutie doet denken aan de begintijd van de cloud: een opkomende technologie met een enorme disruptieve kracht waarbij de aandacht ligt op ontwikkeling en acceptatie in plaats van op normen en governance. Naarmate cloud-ecosystemen AI-native worden, moet ook de beveiligingsaanpak meegroeien”, aldus Bart van de Burgt, Area Vice President, EMEA Central & North bij Wiz. “Dit vraagt om een gecentraliseerd en bruikbaar overzicht van hun AI-beveiligingsstatus, zodat organisaties innovatie kunnen beschermen zonder vertraging op te lopen.”

AI is de drijvende kracht achter cloud-first innovatie 
AI speelt een steeds centralere rol in cloud-activiteiten. Vorig jaar maakte 70 procent van de organisaties gebruik van managed AI-services. Dit percentage is nu gestegen naar 74 procent. Momenteel gebruikt meer dan 85 procent van de organisaties managed of zelf gehoste AI-tools, wat duidt op een groeiend vertrouwen in de operationele waarde van AI.

OpenAI SDK blijft de meest gebruikte AI-technologie, en wordt door 63 procent van de organisaties gebruikt, gevolgd door PyTorch (50 procent), ONNX Runtime (46 procent) en Hugging Face (45 procent). Het gebruik van AI-modellen op eigen servers steeg van 42 procent in 2024 naar 75 procent in 2025, grotendeels dankzij toegenomen integraties met third-party software en interne AI-platforms. Llama-modellen werden aanzienlijk populairder, met een stijging van 18 procent naar 35 procent bij organisaties die zelf gehoste AI gebruiken, wat de blijvende impact van open-source-ecosystemen onderstreept.

Het R1-model van DeepSeek werd in slechts enkele weken na de lancering meer dan 130.000 keer gedownload, waarbij het gebruik ervan door organisaties met zelf gehoste AI-modellen alleen al in januari 2025 verdubbelde tot 7 procent. Deze trend onderstreept de behoefte aan meer flexibiliteit, experimenten en eigen beheer. Het benadrukt ook het belang van veilig en schaalbaar beheer van deze omgevingen.

Beveiligingsstrategieën aanpassen aan de snelheid van AI 
Naarmate AI steeds meer geïntegreerd raakt in cloud-ecosystemen, moeten traditionele beveiligingsmodellen worden aangepast. Onderzoekers hebben ernstige kwetsbaarheden ontdekt, waaronder een AI-database die miljoenen logregels lekte en administratieve toegang verleende. Dit is een duidelijk voorbeeld van verkeerde configuraties die tot kritieke fouten kunnen leiden. In een ander geval werden openbaar toegankelijke buckets gebruikt om AI-modellen te trainen, waardoor de deur werd opengezet voor ‘model poisoning aanvallen’. Sommige AI-modellen bleken ook te draaien in virtuele machines met risicovolle imports, waardoor externe code kon worden uitgevoerd. Deze voorbeelden wijzen op een groeiend dreigingslandschap waarin AI-specifieke risico’s nog niet adequaat worden aangepakt door een traditionele aanpak van cloud-beveiliging.

Het zijn geen redenen om het rempedaal in te trappen, maar toont aan dat AI-security tegelijk met innovatie moet evolueren. Een proactieve AI-beveiligingshouding helpt teams om het doen van concessies tussen vooruitgang en veiligheid te vermijden.

Security als motor voor innovatie 
Van der Burgt: “De voordelen van AI zijn duidelijker dan ooit. Er zijn veel indrukwekkende voorbeelden van bedrijven die tastbare, baanbrekende resultaten hebben geboekt. Maar grote vooruitgang brengt ook grote verantwoordelijkheid met zich mee. Gartner wijst op de toenemende bedreigingen voor AI-beveiliging en stelt dat ‘het gebruik van AI-technologie het risico vergroot en dat dit zonder effectief beheer en effectieve beveiligingsmaatregelen schadelijke en onvoorziene gevolgen zal hebben voor organisaties.’ Wiz deelt dit standpunt. Security moet niet worden gezien als een rem op vooruitgang, maar als een motor voor innovatie. Organisaties die AI-specifieke security-oplossingen voor de cloud en best practices omarmen, kunnen hun momentum vasthouden en dat met vertrouwen doen. Dit moment biedt kansen om beveiliging en innovatie op elkaar af te stemmen door middel van doordachte, toekomstgerichte strategieën die organisaties helpen om op verantwoorde wijze de leiding te nemen in het tijdperk van AI.”

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht