Utility Computing: hype of logische ontwikkeling?

Dezelfde voorspelling deed ook Scott G. McNealy, CEO van SUN in 1999. Zo'n vier jaar later wordt zijn visie bevestigd en maakt IBM on-demand computing tot hoeksteen van haar langetermijnstrategie met een R&D budget van zo'n tien miljard dollar. Inmiddels lijkt de pr-machine op volle toeren te draaien en worden we overspoeld met verhalen van grote marktpartijen over hun invulling inzake Utility Computing. Maar wat is er eigenlijk in die vier jaar gebeurd en waar staan we nu?
De ASP-belofte
In 1999 werd het ASP Industry Consortium opgericht en kreeg de eerste ASP, het nog geen jaar oude Usi, een notering op de NASDAQ met de ongelofelijke waardering van meer dan $600 miljoen. De eerste marktstudies berekenden enorme groeipotenties en zogenaamde pure play ASP's, zouden hieraan invulling geven met als voordelen:
– Het wegnemen van technologische drempels
– Geen investeringen vooraf, maar een vast, voorspelbaar maandbedrag op basis van gebruik
– Lagere Total Cost of Ownership
– Snelle implementatietijd
– Schaalbare infrastructuur
– Focus houden op eigen business
De ASP-bedrijven vlogen als paddestoelen uit de grond en vele (grote) ondernemingen labelden bestaande diensten en de levering van softwareproducten om naar ASP-diensten. Telecombedrijven zagen ASP als strategische weg om een positie in de IT-markt te verwerven. Zij bezaten immers al de basisinfrastructuur die nodig was voor de ASP-service en kwamen snel met eigen ASP-aanbiedingen. Daarnaast ontstonden er vele nieuwe bedrijven met specifieke ASP-aanbiedingen. In Nederland waren dat bedrijven als Anapa, Anachron, ASP4All, EC-Gate, Graddelt (later Marviq), Multrix, Siennax en UniXS.
Eind 2000 was iedereen er klaar voor en stond ASP op het punt van doorbreken! Althans volgens de analisten van Gartner, IDC en de Venture Capitalists die veel geld hadden geïnvesteerd in ASP-proposities. Wat ging er mis?
Waarom het niet lukte
Niet de dramatische beursgang van WorldOnline of het instorten van de Internet hype was de oorzaak van het niet slagen van veel ASP-proposities. Er waren drie dieper liggende oorzaken:
– De beperkte beschikbaarheid van bruikbare applicaties;
Er waren wel web-enabled applicaties, maar het aanbod was beperkt en bestond vooral uit applicaties die zich (nog) niet bewezen hadden op de Nederlandse markt.
– Bandbreedtekosten;
De bandbreedtekosten waren vier jaar geleden hoog, internetconnectie bestond hoofdzakelijk uit dial-up verbindingen. De goedkoopste vaste-lijnconnectie kostte minimaal 1.500 euro per maand, deze kosten waren te hoog in verhouding tot de contractwaarde.
– De doelgroep zelf;
Het MKB had geen ervaring met het outsourcen van IT-diensten en het idee leeft dat 'zelf doen' goedkoper is.
Toch zijn er succesverhalen binnen het ASP-model; de verticale ASP's met branchespecifieke applicaties hebben wel degelijk voet aan de grond gekregen. Maar de meeste horizontale ASP's trokken zich terug uit de markt, verlegden de business focus naar consultancy of gingen failliet.
Utility Computing
Tegenwoordig spreekt men van Utility Computing waarbij het meest opvallende verschil met andere IT-outsourcingmodellen zit in de infrastructuur. Deze is in tegenstelling tot de andere modellen eigendom van de leverancier en wordt op shared basis aangeboden aan klanten, die alleen worden afgerekend op werkelijk verbruik. De leverancier bouwt haar infrastructuur met als doelstelling voordeel te creëren middels het delen van systeemresources, of dit nu rekencapaciteit of storage betreft of meer geavanceerde applicatieresources zoals een JAVA applicatieserver of een database. Het resultaat is een hoge beschikbaarheidgarantie en een kostenbesparing die vele malen hoger ligt dan bij de traditionele outsourcing.
In geval van traditionele outsourcing is de besparing in het gunstigste geval 10-15%. Bij Utility Computing zijn besparingen haalbaar van 30% en meer. Een dedicated applicatieserver wordt voor minder dan 20% gebruikt. Utility Computing gebruikt technologie waarmee applicaties en gerelateerde data optimaal over verschillende servers, storage resources en het netwerk worden verdeeld. Tevens is de factor beheerskosten aanzienlijk lager, normaal bestaan die voor zo'n 80% uit menskosten. Maar door de schaalgrootte is het beheer en management van de infrastructuur van een Utility Computing leverancier verregaand geautomatiseerd en liggen de menskosten ver onder de 50%. Tot slot betalen klanten alleen voor de resources die zij daadwerkelijk hebben gebruikt.
De Utility Computing leverancier is eigenaar van de infrastructuur; het zijn core-asset. Er is hem alles aan gelegen een zo hoog mogelijke kwaliteit te leveren en te zorgen voor een continue verbetering en vernieuwing van de infrastructuur. De beschikbaarheid en veiligheid die een Utility Computing leverancier kan bieden, liggen hoger dan die van een interne IT-afdeling. Bovendien wordt de Service Level vastgelegd in een zogenaamde SLA.
Naast de hoge beschikbaarheid en het 'pay-as-you-go' afrekenmodel biedt Utility Computing voordelen op het gebied van schaalbaarheid en een verkorting van de implementatietijd van maanden tot enkele dagen danwel weken. Bovendien kan de implementatie trapsgewijs verlopen.
Hoe concreet is Utility Computing nu?
Internet is als business enabler niet meer weg te denken, het vormt een ideaal distributiekanaal. De voorspellingen over het gebruik van Internet zijn ruim overtroffen. Maar ondanks de pr-verhalen is Utility Computing bij de grote leveranciers vooral nog "slide-ware". Er zijn reeds enkele producten geannonceerd, maar dat zijn beperkte basis-services die alleen nog in Verenigde Staten beschikbaar zijn. Het zijn op dit moment juist kleine en innovatieve ondernemingen die de belofte van Utility Computing geheel of gedeeltelijk waarmaken.
Om te profiteren van de voordelen die Utility Computing biedt, dienen klanten echter wel af te stappen van het idee dat een infrastructuur dedicated voor hen ingericht en gemanaged moet zijn. Het is technisch goed mogelijk een absolute en gegarandeerde scheiding aan te brengen tussen gegevens en resources van klanten en applicaties.
Utility Computing de volgende hype?
Utilility Computing is geen baanbrekende nieuwe technologie, maar een verdere evolutie van bestaande ontwikkelingen en dat maakt het kansrijk om succesvol te worden. Utility Computing is vooral een nieuwe kijk op het beschikbaar stellen en gebruiken van een moderne IT-infrastructuur en is niet afhankelijk van een compleet nieuwe en dus nog niet bewezen technologie. Het model is zo krachtig dat velen geloven dat het de IT-industrie fundamenteel zal gaan veranderen.
Dat hebben we vaker gehoord, zult u denken. Toch zijn er argumenten om aan te nemen dat Utility Computing veel meer is dan een hype. Immers, organisaties die gebruik maken van Utility Computing zetten geen bestaande systemen overboord en doen geen dure en moeizame conversies. Zij kunnen stapsgewijs overschakelen. Daarbij speelt dat Utility Computing vooral grote organisaties aanspreekt die reeds ervaring hebben met outsourcing. Er wordt dus geen nieuw koperspubliek aangesproken, zoals met het ASP-model het geval was.
Alle grote IT-leveranciers hebben Utility Computing inmiddels de hoeksteen van hun strategie gemaakt. Zagen zij in het verleden ASP-leveranciers vooral als klant voor hun infrastructuurproducten, Utility Computing is een propositie die zij zelf naar de markt gaan brengen.
Utility Computing speelt in op het groeiende besef dat investeringen in IT niet vanzelfsprekend bijdragen tot verbetering van de productiviteit en de inzet ervan niet automatisch een strategisch voordeel oplevert. Een voorbeeld is e-mail; geen bedrijf kan meer zonder e-mail en net als telefoon en transport moet het gezien worden als bedrijfsmiddel en niet als strategische differentiator. Het is onbegrijpelijk dat bedrijven een eigen e-mailomgeving inrichten en exploiteren en dat niet overlaten aan daarin gespecialiseerde bedrijven. Eenzelfde trend is te zien bij processoren, besturingssystemen, databases en tekstverwerkers.
Verder is er een groeiende behoefte aan kwaliteit en veiligheid. Steeds meer bedrijven exploiteren internettoepassingen die leveranciers, afnemers en consumenten in staat stellen informatie uit te wisselen of transacties te verrichten. De doorsnee IT-afdeling is nauwelijks in staat om aan het pakket van eisen op het gebied van inrichting, beschikbaarheid en beveiliging voor dit type toepassingen te voldoen. Schaalgrootte is de remedie, alleen bij enige omvang is dit op efficiënte en effectieve wijze in te richten en te exploiteren.
Nog steeds is het zo dat hobbyisme, "not invented here", en angsten gevoed door eigen negatieve ervaringen een rol spelen bij de besluitvorming rond de uitbesteding van IT. Maar stabiele technologie, betrouwbare verbindingen, kwaliteitsnormen, wetgeving en schaalgrootte zijn steeds meer de norm, zodat bij "make vs buy" steeds vaker rationele en professionele in plaats van emotionele afwegingen worden gemaakt. Daarmee is het langzaam maar zeker volwassen worden van de IT-industrie misschien wel de belangrijkste reden waarom het Utility Computing model een serieuze kans van slagen heeft. Wellicht was Scott McNealy wat ambitieus, maar binnen nu en vijf jaar zullen steeds meer bedrijven hun IT-resources huren bij een service provider!
Deel dit bericht
Plaats een reactie
Uw e-mailadres wordt niet op de site getoond
4 Reacties
Jeroen Buis
Herb, Je geeft zelf al aan dat er wel ASP's zijn die succesvol geworden zijn; ik denk dat de kop 'Waarom het niet lukte' ook niet klopt. Het is wel degelijk gelukt en er zijn ASP aanbieders in Nederland met duizenden gebruikers. Het is in de IT alleen zo dat gevolgen van technologische ontwikkelingen zwaar overschat worden; het ASP model werkt maar heeft meer tijd nodig om echt mainstream te worden. Of het gebruik van een nieuwe kreet als 'Utility Coomputing' nu bijdraagt aan deze verdere uitbouw betwijfel ik; je moet alweer een hele paragraaf 'Utility Computing de volgende hype?' volschrijven om aannemelijk te maken dat Utility Computing geen hype is. Onze ervaring leert dat grote bedrijven niet bang zijn om applicaties bij een ASP onder te brengen; onze grootste klanten behoren bij de top-20 bedrijven in Nederland en hebben het ASP model volledig geaccepteerd. Jeroen BuisShipitSmarter.com BV
Paul van Egmond
Application Service Provisioning en Utility Computing zijn inderdaad levensvatbare modellen, maar ik denk dat de leveranciers van dit soort oplossingen wat verder buiten de techniek moeten kijken: overstappen op ASP of UC betekent automatisch een migratie voor de klant. Hierbij is de impact voor de organisatie onduidelijk en daardoor eng. Je kunt het ICT-managers en beheerders niet kwalijk nemen dat ze niet en masse instappen op ASP of UC, aangezien ze zichzelf daarmee brodeloos maken. Tenminste, als de beloftes van ASP kunnen worden waargemaakt. Daarnaast hebben klanten nog een aantal terechte 'ja-maar'en: – Wat gebeurt er met mijn data?- Kan de leverancier de beloofde beschikbaarheid en schaalbaarheid waarmaken?- Hoe zit het met bestaande licenties en hardware?- Is de reductie in beheer wel structureel? Zo ja, wat moet ik dan met mijn beheerstaf?- is het platform voldoende flexibel om toekomstige ontwikkelingen aan te kunnen?- Hoe ontwikkelt de markt voor bandbreedte zich? Aanbieders van ASP en UC doen er goed aan om deze vragen in heldere termen te adresseren als ze uberhaubt een strucurele vraag vanuit de markt willen creeren. APS en UC zijn conceptueel nou eenmaal complex en wat de boer niet kent…
Francine Loos
De stelling 'binnen vijf jaar huurt iedereen IT-resources in bij een service provider' heeft maar ten dele met utility computing te maken. Het mooie van utility computing is juist dat IT ook binnen organisaties als een service op maat ingezet kan worden, gebruikmakend van bestaande infrastructuren. Hiermee kunnen kosten worden bespaard en worden dure investeringen in hardware ten volste benut. Het is niet nodig hier nog vijf jaar mee te wachten, dit is ook vandaag al mogelijk. Lees voor meer informatie het artikel op: http://www.veritas.com/en/UK/misc/utilitycomputing.html
Martijn
ASP of utility computing zijn alleen weggelegd voor grote bedrijven die, zoals vermeld, ervaring hebben met outsourcen. Voor met name MKB bedrijven zijn er een hoop redenen om dergelijke techniek voorlopig niet te gebruiken: - Men wil de bedrijfsvoering niet afhankelijk maken van een Internet verbinding - Men houdt de bedrijfsdata liever 'fysiek' in het eigen kantoorpand - Men weigert om een domme terminal aan te schaffen die net zo veel kost als een complete PC bij Dell Verder levert dergelijke techniek geen enkel concreet voordeel voor de afnemer, op de (beloofde) kostenbesparing na. Er word van de ondernemer verwacht dat hij een complete migratie uitvoert, prijzige breedbandverbindingen aanlegt (liefst redundant) en last but not least, zich compleet afhankelijk maakt van de ASP aanbieder. Oftewel, de ondernemer moet hemel en aarde bewegen, om te zorgen dat de aanbieder zijn ICT goedkoop kan beheren. Ik denk dat het gecentraliseerd beheren van ICT infrastructuren absoluut een groeimarkt word. Maar in plaats van alle werkplekken via Internet bij 1 centrale beheerorganisatie onder te brengen, denk ik dat de centrale beheerorganisatie via Internet op grote schaal lokale netwerken gaat beheren. Verder heeft het ASP model alleen toekomst voor vertikale toepassingen, zoals salesforce.com. MartijnComputication.nl