Amsterdam, 15 juli 2025 – Voor de Qlik AI Council, een groep experts op het gebied van technologie en AI, is het duidelijk: AI is vaak nog te onbetrouwbaar om grootschalig in te zetten. Hun advies aan organisaties: blijf niet hangen in experimenten, maar ga er echt serieus mee aan de slag. Dat kan alleen met transparantie, duidelijke afspraken (governance) en betrouwbare data als basis.
Ondanks recordinvesteringen in AI blijven veel organisaties steken in de testfase. Uit onderzoek van IDCblijkt dat 80 procent AI wil inzetten in het dagelijks werk, maar dat slechts 12 procent zich daar klaar voor voelt. Zorgen over ‘hallucinaties’ van AI, vooroordelen in data en veranderende regelgeving zorgen ervoor dat organisaties terughoudend blijven. De winst zit dan ook niet in het slimste model, maar in het verantwoord en met vertrouwen toepassen van AI.
De Qlik AI Council deelt vier tips om AI betrouwbaar en op schaal in te zetten.
1. Bouw vertrouwen in vanaf het begin
Voorkom dat AI een ‘black box’ blijft. Kies voor systemen die kunnen uitleggen hoe beslissingen tot stand komen en geef mensen de mogelijkheid om mee te kijken en in te grijpen bij belangrijke beslissingen. Gebruik modellen die hun keuzes toelichten en controleren of de data klopt, actueel is en vrij van vooroordelen. Bias in data kan subtiel maar hardnekkig zijn, bijvoorbeeld door eenzijdige gebruikersinteractie. Door hier vanaf het begin bewust mee om te gaan en afspraken vast te leggen over ethiek en governance, voorkom je dat AI ongelijkheden onbedoeld versterkt.
2. Zorg voor grip op AI
Het grootste risico zit niet in de technologie zelf, maar in het gebruik van AI. Zonder duidelijke afspraken over wie waarvoor verantwoordelijk is, kunnen risico’s groter worden dan de voordelen. Zorg daarom dat governance en risicobeheer goed geregeld zijn. Wijs bijvoorbeeld een AI-verantwoordelijke of een speciale AI-board aan die toezicht houdt op het gebruik van AI. Zorg ook voor duidelijke processen om AI-toepassingen continu te monitoren, waar nodig bij te sturen en te blijven voldoen aan wet- en regelgeving. Vergeet ook de medewerkers niet: organiseer trainingen en bewustwordingssessies, zodat iedereen weet wat de risico’s zijn en wanneer ze moeten ingrijpen.
3. Begin met data die klopt
AI is slechts zo slim als de data waarop het is getraind. Wie werkt met onvolledige of verouderde data loopt het risico op onnauwkeurige of zelfs schadelijke uitkomsten. Betrouwbare AI begint dus bij betrouwbare data. Investeer in datakwaliteit: zorg dat gegevens actueel, volledig en relevant zijn voor het doel waarvoor je AI inzet. Gebruik alleen herleidbare bronnen, zodat duidelijk is waar de AI zijn ‘kennis’ vandaan haalt. Richt bovendien datamanagementprocessen in – bijvoorbeeld met een team dat verantwoordelijk is voor het controleren, opschonen en actualiseren van data voordat deze in AI-modellen wordt gebruikt.
4. Zie compliance als voordeel
Wet- en regelgeving naleven is geen last, maar een kans. Wie governance en compliance goed op orde heeft, wint het vertrouwen van klanten, partners en toezichthouders. En dat is wat nodig is om AI op te schalen. Met de inwerkingtreding van de AI Act moeten organisaties die onder ‘hoog risico’ vallen – zoals bij toepassingen voor werving, kredietverlening of zorg – vanaf dit jaar kunnen aantonen hoe hun AI werkt, welke data wordt gebruikt en hoe zij risico’s beheersen. Wie dat nu al op orde heeft, verkleint niet alleen de kans op problemen, maar creëert ook een voorsprong in het grootschalig én verantwoord inzetten van AI.
De boodschap van de Qlik AI Council is helder: AI gaat razendsnel, maar zonder vertrouwen kom je nergens. Organisaties die investeren in transparantie, governance en betrouwbare data, zijn straks in staat om AI niet alleen te testen, maar ook écht in de praktijk te brengen op grote schaal. Wie dat niet doet, blijft hangen in pilots en experimenten. Niet vanwege de technologie, maar vanwege een gebrek aan vertrouwen.