Gartner waarschuwt: 40% agentic AI-projecten flopt

Bijna de helft van de agentic AI-projecten zal tegen eind 2027 zijn geannuleerd vanwege stijgende kosten, onduidelijke bedrijfswaarde en ontoereikende risicobeheercontroles.
Dat stelt onderzoeksbureau Gartner in een nieuw, internationaal rapport.
Om het enthousiasme op de techmarkt rondom deze materie verder te bederven stelt analist Anushree Verma: “De meeste agentic AI-projecten zijn momenteel vroege experimenten, gedreven door hype en vaak verkeerd toegepast. Organisaties worden verblind door de mogelijkheden zonder de werkelijke kosten en complexiteit te doorzien.”
AI-agenten gebruiken een taalmodel dat is gekoppeld aan verschillende services en toepassingen om taken of bedrijfsprocessen te automatiseren. Simpel voorbeeld bij een webshop: vanuit de chatbot onderwater het logistieke systeem laten aanroepen voor de verzendstatus van een pakketje en vervolgens in natuurlijke taal de consument beantwoorden.
Gartner signaleert een verontrustende trend van ‘agent washing’, waarbij leveranciers bestaande producten herlabelen zonder substantiële agentic mogelijkheden. Naar schatting zijn slechts ongeveer 130 van de duizenden agentic AI-leveranciers werkelijk onderscheidend.
Op Vivatech leek praktisch elke softwarestand linksom of rechtsom wel het label ‘agentic’ te dragen:
In deze video leggen twee Google’ers uit dat AI-agents lang niet altijd de oplossing voor een dataprobleem zijn. Een eenvoudig, goed afgekaderd werkproces kan evengoed het antwoord zijn:
Een verdieping van wat AI-agents dan wel zijn:
Gartners Verma benadrukt het belang van een gerichte aanpak: “Om echte waarde te creëren, moeten organisaties zich richten op bedrijfsproductiviteit in plaats van individuele taakverduidelijking. Begin met AI-agenten voor besluitvorming, automatisering voor routinematige workflows en assistenten voor eenvoudige informatieophaling.”
Foto: AI-gegenereerd
Deel dit bericht
Plaats een reactie
Uw e-mailadres wordt niet op de site getoond
1 Reacties
Erwin Vroom
Ja, het is te verwachten he. Zeker als je bedenkt dat een LLM vaak niet eens in staat is om fatsoenlijk het aantal letters in een zin te tellen. LLM’s pakken alles aan met een waarschijnlijkheidsmodel in taal. Als er genoeg mensen roepen dat één en één drie is, dan wordt dat waar voor het systeem. En laat voor een agent nou net nodig zijn dat er algorithmisch wordt geredeneerd en niet op basis van taal. Het koppelen van wat het taalmodel uitspreekt en dat omzetten in een actie is natuurlijk een groot probleem. Want dan moet je een parser maken die natuurlijke taal omzet in feitelijkheden voor een programma dat daarmee acties kan uitvoeren zoals database-updates, informatie ophalen etc. Je vraagt je af wat de volgende hype wordt. Ik denk dat quantum voorlopig nog wel even een hype blijft ook (terwijl dat óók voor geen meter werkt). ‘Quantic-agents’, vast goed voor nog eens 200 miljard investeringsgeld van de overheid en andere onwetende rijken.