Industry Wire

Geplaatst door Wiz Research

Wiz Research: AI-data massaal gelekt via publieke code, ook van Fortune 100-bedrijven

Uit een analyse van Wiz Research blijkt dat honderden sets gevoelige data, inclusief logingegevens van Fortune 100-bedrijven zijn blootgesteld via publieke code repositories. Het team scande gedurende een maand openbare code repositories om te kijken hoe organisaties omgaan met securityrichtlijnen in het snel veranderende AI-landschap. Bij twintig procent van de onderzochte organisaties is gevoelige en vertrouwelijke informatie gevonden. Dit laat zien dat ontwikkelaars en andere betrokkenen bereid zijn om beveiligingsprotocollen te omzeilen in hun enthousiasme om nieuwe AI-technologieën te gebruiken.

Het team van Wiz Research vond gevoelige data van dertig verschillende organisaties, waaronder meerdere Fortune 100-bedrijven. Ongeveer een derde van deze data had betrekking op persoonlijke projecten. Veertig procent van de gelekte vertrouwelijke informatie had directe impact op de getroffen organisaties. Zo gaf een lek potentieel toegang tot gevoelige hr-gegevens. Opvallend is dat 56 procent van de blootgestelde gegevens van bedrijven werd gevonden in persoonlijke opslagomgevingen van medewerkers en niet in de opslagruimte van hun werkgever. Dit laat zien dat het risico van indirecte blootstelling, ook wel ‘adjacent discovery’ genoemd, groot is.

 

AI-gerelateerde gevoelige gegevens beslaan het merendeel van de bevindingen, waarbij vier van de vijf meest aangetroffen soorten direct gekoppeld waren aan AI-toepassingen. De drie belangrijkste aanvalsroutes voor de datalekken die Wiz signaleerde zijn:

  • Python-notebooks (.ipynb-bestanden) zijn een goudmijn voor vertrouwelijke gegevens. Deze bestanden bevatten vaak een unieke mix van uitvoerbare code, uitvoer en inline documentatie, waardoor ze bijzonder kwetsbaar zijn als ze per ongeluk worden gepubliceerd, bijvoorbeeld in openbare repositories.
  • Configuratiebestanden voor AI-agents, zoals mcp.json en .env, bevatten vaak hardcoded authenticatiegegevens. Dit probleem komt vooral voor bij ontwikkelaars die gebruikmaken van AI-gedreven code-assistenten, waarbij zowel gebruikers als tools vaak onvoldoende bekend zijn met best practices voor gevoelige data. Het Model Context Protocol (MCP), een snelgroeiend framework voor het beheer van AI-agent context, brengt extra veiligheidsrisico’s met zich mee. Met name wanneer gekoppelde diensten en API’s zijn geconfigureerd zonder de juiste toegangscontroles of beveiligingsmaatregelen.
  • Nieuwe typen vertrouwelijke gegevens die worden geïntroduceerd door AI-leveranciers komen steeds vaker voor. Veel detectietools kunnen deze ontwikkelingen niet bijhouden en herkennen nieuwere formaten niet, wat leidt tot steeds meer blinde vlekken in de beveiligingsmaatregelen van organisaties.

Chinese AI-platformen zijn een voorbeeld van veelgebruikte diensten die vaak worden gemist door Westerse beveiligingstools. GitHub heeft veel ontwikkelaars wereldwijd die deze AI-platformen gebruiken. Als gevolg daarvan lekken grote hoeveelheden authenticatiegegevens voor deze diensten weg zonder dat dit wordt opgemerkt of verholpen. Dit in tegenstelling tot Westerse tegenhangers, waar dergelijke lekken eerder automatisch worden geïdentificeerd. Ook worden veelgebruikte AI-diensten vaak over het hoofd gezien door standaard scanners.

“Nu AI een standaard hulpmiddel wordt voor ontwikkelaars laten deze bevindingen zien dat er een sterker securitybeleid nodig is”, aldus Rami McCarthy, Principal Security Researcher bij Wiz. “Hoewel het tempo van innovatie enthousiast maakt, is het duidelijk dat standaardbeveiliging de norm moet worden en niet de uitzondering. We hopen dat dit onderzoek proactieve gesprekken op gang brengt tussen beveiligings- en engineeringteams en de invoering van slimmere tools en werkwijzen wordt versneld om organisaties beter te beschermen.”

Het volledige onderzoek is hier te vinden. 

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht