Benchmark: Obstakels bij AI-adoptie en data analytics in de cloud
Tegenwoordig is data een cruciaal onderdeel van elke bedrijfsaspect. Uit cijfers van het World Economic Forum (WEF) blijkt dat negentig procent van de wereldwijd beschikbare data de afgelopen twee jaar gecreëerd is. Er wordt verwacht dat dit in 2020 groeit naar 44 zetabytes (dit is veertig keer het aantal sterren in het universum). 463 exabytes zullen worden gecreëerd door mobiele technologie, wearables, social media platforms, communicatie en transacties.
Deze explosie van het datavolume en diversiteit van data is belangrijk voor de ondersteuning van toekomstig gebruik van kunstmatige intelligentie (AI) en de automatisering van data-analyse. Tegelijkertijd creëert het ook obstakels voor bedrijven voor het adopteren van AI.
Benchmark: Obstakels bij AI-adoptie en data analytics in de cloud
Welke obstakels bij AI-adoptie en data analytics in de cloud zijn er? Om deze vraag te beantwoorden heeft Trifacta in samenwerking met Researchscape onderzoek gedaan naar de belangrijkste uitdagingen bij AI-adoptie en datamanagement in de cloud. Het resultaat is deze benchmark. Enkel key takeaways zijn:
- 68 procent van de IT-professionals maakt gebruik van dataopslag in de cloud.
- Tweederde van de AI- of machine learning (ML) initiatieven wordt uitgevoerd in de cloud.
- 76 procent van de C-level professionals heeft AI- en ML initiatieven op de roadmap staan.
- 75 procent van de respondenten twijfelt over de datakwaliteit.
- 46 procent besteed meer dan tien uur voor data preparation.
De opkomst van AI en machine learning zorgt voor adoptie van de cloud
Machine learning en AI zorgen voor schaalbare cloud datawarehouses en data lake architecturen. Hierdoor wordt de digitale wendbaarheid van organisaties verbeterd. Dit zorgt er ook voor dat bedrijven zich kunnen focussen op het data gedreven initiatieven. Lees in de benchmark wat volgens de ondervraagde IT-professionals de voordelen van cloud computing zijn.
Uit het onderzoek blijkt dat het Google Cloud Platform (GCP) het meest gebruikt wordt voor cloud storage, gevolgd door Microsoft Azure en Amazon Web Services (AWS).
Zonder accurate data geen AI en machine learning
De grootste uitdagingen van de respondenten uit dit onderzoek is de accuraatheid van data. Slechts 26 procent geeft aan dat hun data compleet accuraat is voordat zij deze voorbereiden en opschonen. Organisaties beseffen dat zonder kwalitatieve data AI-initiatieven niet goed uitgevoerd kunnen worden.
Uit het onderzoek blijkt dat slechte data leidt tot een langere doorlooptijd, hogere kosten of het niet realiseren van doelstellingen. De benodigde tijd voor het voorbereiden van data voor AI en ML loopt sterk uiteen tussen één en twintig uur.
Om de accuraatheid van data te verbeteren is het zaak om third-party consumentendata, semi-gestructureerde data en data van relationele databases te analyseren. Lees in de benchmark wat de grootste uitdagingen zijn op het gebied van datamanagement.
De complexiteit van data vereist moderne data preparation technologie
Organisaties kunnen niet meer blind vertrouwen op bestaande data integraties. De snelheid, schaalbaarheid en diversiteit van data vereist een moderne aanpak voor datamanagement. Slechte gegevenskwaliteit is vijand nummer één voor het wijdverbreide, winstgevende gebruik van machine learning volgens Harvard Business Review.
Een schone dataset is cruciaal voor AI- en ML-projecten, maar naarmate het aantal databronnen in de cloud en on-premise toeneemt zorgt dit voor nieuwe uitdagingen voor organisatie. Moderne data preparation technologie kan je helpen bij het tackelen van deze uitdagingen en het verhogen van de kwaliteit van je data. Lees in de benchmark wat de toegevoegde waarde is van moderne technologie voor gegevensvoorbereiding en opschoning.