Industry Wire

Geplaatst door SAS

Onderzoek IDC: Wereldwijd groeit vertrouwen in GenAI, ondanks tekortschietende AI-veiligheidsmaatregelen

Ondernemingen die investeren in betrouwbare AI-systemen hebben 60% meer kans om het rendement op hun AI-projecten te verdubbelen. Dit onderstreept het belang van een zorgvuldige en doordachte aanpak bij de implementatie van AI.
Huizen, 30 september 2025 – SAS, een wereldleider in data en AI, publiceert vandaag het rapport van IDC over de impact en de betrouwbaarheid van AI. Uit het IDC Data and AI Impact Report: The Trust Imperative, blijkt dat IT- en topmanagers meer vertrouwen hebben in GenAI dan in elke andere vorm van AI. Maar toont tegelijkertijd aan dat slechts 40% van de organisaties investeert in AI-veiligheidsmaatregelen op het vlak van governance, uitlegbaarheid en ethiek.

Toch hebben bedrijven die prioriteit geven aan betrouwbare AI, 60% meer kans om de ROI van AI-projecten te verdubbelen. De organisaties die de minste investeringen in betrouwbare AI-systemen rapporteerden, beschouwen, paradoxaal genoeg, generatieve AI (zoals ChatGPT) als 200% betrouwbaarder dan traditionele AI (zoals machine learning), Nochtans is die traditionele AI de meest gevestigde, betrouwbare en uitlegbare vorm van AI.

“Er komt een tegenstrijdigheid naar voren uit ons onderzoek. Algemeen bekende AI-systemen met mensachtige interactie lijken namelijk het meest vertrouwen in te boezemen, ongeacht hun werkelijke betrouwbaarheid of nauwkeurigheid”, zegt Kathy Lange, Research Director AI & Automation Practice bij IDC. “Als AI-providers, professionals en private gebruikers moeten we ons de vraag stellen: generatieve AI geniet wel vertrouwen, maar zijn de systemen ook altijd betrouwbaar? En passen leiders de nodige voorzorgs- en governancemaatregelen toe voor deze nieuwe technologie?”

Het onderzoek is gebaseerd op een wereldwijde enquête bij 2375 personen uit Noord-Amerika, Zuid-Amerika, Europa, het Midden-Oosten, Afrika, Azië-Pacific. De deelnemers waren evenwichtig verdeeld over IT-professionals en topmanagers, voor perspectieven uit zowel technologische als zakelijke functies.

Opkomende AI-technologieën boezemen meer vertrouwen in
Algemeen bleek uit de studie dat opkomende technologieën zoals generatieve AI en agentic AI meer vertrouwen genieten dan langer bestaande vormen van AI. Zowat de helft van de respondenten (48%) gaf aan generatieve AI ‘volledig te vertrouwen’. Voor agentic AI was dat 33%. Traditionele vormen van AI boezemen het minst vertrouwen in: slechts één op de vijf (18%) gaf aan ze volledig te vertrouwen.

Hoewel ze veel vertrouwen hebben in generatieve en agentic AI, maakten de deelnemers zich zorgen over data privacy (62%), transparantie en verklaarbaarheid (57%) en het ethische gebruik van de technologie (56%).

Ondertussen neemt het vertrouwen in quantum AI snel toe, hoewel de technologie voor de meeste gebruikstoepassingen nog niet volledig beschikbaar is. Bijna een derde van de wereldwijde besluitvormers gaf aan vertrouwd te zijn met quantum AI, en 26% heeft het volste vertrouwen in de technologie, hoewel de reële toepassingen nog in de kinderschoenen staan.

“Het vertrouwen in AI is van cruciaal belang voor de samenleving, bedrijven en werknemers”, zegt Bryan Harris, Chief Technology Officer van SAS. “Hiertoe moet de AI-sector de succesgraad van de implementaties verhogen, moeten mensen AI-resultaten met een kritische blik bekijken en moet het management werknemers de kracht van AI in handen geven.”

Ontoereikende AI-vangrails verzwakken de impact van AI en de ROI
De studie wijst op een snelle toename van het AI-gebruik, zeker van generatieve AI, dat traditionele AI snel heeft ingehaald wat betreft zichtbaarheid en gebruik (81% vs. 66%). Dat heeft geleid tot nieuwe risico’s en ethische vraagtekens.

De IDC-onderzoekers stelden bij organisaties in alle regio’s een discrepantie vast tussen de gepercipieerde en de werkelijke betrouwbaarheid van de technologie. Hoewel volgens de studie bijna acht op de tien organisaties (78%) aangeven AI volledig te vertrouwen, heeft slechts 40% geïnvesteerd om de systemen aantoonbaar betrouwbaar te maken met voorzorgsmaatregelen op op het vlak van governance, verklaarbaarheid en ethische waarborgen.

Het onderzoek wijst ook op de lage prioriteit voor maatregelen om de betrouwbaarheid te verzekeren bij het operationaliseren van AI-projecten. Slechts 2% van de respondenten plaatste de ontwikkeling van een governancekader voor AI bij de drie belangrijkste prioriteiten en minder dan 10% gaf aan een beleid voor verantwoord AI-gebruik uit te werken. Minder aandacht voor betrouwbaarheidsmaatregelen kan er echter toe leiden dat de AI-investeringen van diezelfde bedrijven later niet maximaal renderen.

De onderzoekers deelden de respondenten in in leiders en volgers op het vlak van betrouwbare AI. Bestuurders investeerden het meest in praktijken, technologieën en governance frameworks om hun AI-systemen betrouwbaar te maken en lijken daar ook de vruchten van te plukken. Diezelfde leiders in betrouwbare AI hadden namelijk 1,6 keer meer kans op een dubbel of nog groter investeringsrendement van hun AI-projecten.

Gebrek aan sterke datafundamenten en governance staan AI in de weg
Naarmate AI-systemen autonomer worden en meer geïntegreerd raken in kritieke processen, worden ook de datafundamenten belangrijker. De kwaliteit, diversiteit en governance van de data hebben een rechtstreekse invloed op de AI-resultaten. Slimme datastrategieën zijn dan ook essentieel om voordelen te verwezenlijken (bv. ROI, productiviteitstoename) en de risico’s te beperken.

Tijdens het onderzoek werden drie belangrijke hinderpalen vastgesteld voor succesvolle AI-implementaties:
Een zwakke data-infrastructuur
Ontoereikende governance
Gebrek aan AI-vaardigheden
Volgens bijna de helft (49%) van de bedrijven vormden een niet-gecentraliseerde data-infrastructuur of niet-geoptimaliseerde clouddata de belangrijkste hinderpaal. Daarna volgden onvoldoende processen voor datagovernance (44%) en een gebrek aan gespecialiseerde medewerkers binnen de onderneming (41%).

Wat het beheer betreft van de data die gebruikt wordt voor AI-implementaties, was het belangrijkste probleem volgens de respondenten de toegang tot relevante databronnen (58%). Andere grote uitdagingen waren dataprivacy- en complianceproblemen (49%) en de datakwaliteit (46%).

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht