Vultr lanceert Cloud Inference om modelimplementatie te vereenvoudigen en AI-applicaties automatisch wereldwijd te schalen

Amsterdam, 19 maart 2024 – Vultr, ’s werelds grootste private cloud computing platform, kondigt vandaag de lancering aan van Vultr Cloud Inference. Dit nieuwe serverloze platform revolutioneert de schaalbaarheid en het bereik van AI door wereldwijde inzet van AI-modellen en AI-inferentie mogelijk te maken. Door gebruik te maken van de wereldwijde infrastructuur van Vultr, die zich uitstrekt over zes continenten en 32 locaties, biedt Vultr Cloud Inference klanten naadloze schaalbaarheid, lagere latentie en verbeterde kostenefficiëntie voor hun AI-implementaties. Het snel veranderende digitale landschap dwingt bedrijven om AI-modellen efficiënt te implementeren en te beheren. Dit vergroot de vraag naar geoptimaliseerde cloudinfrastructuur voor wereldwijde inferenties, terwijl organisaties zich meer richten op inferentiekosten bij het in productie brengen van modellen. Dit brengt uitdagingen met zich mee voor ontwikkelaars, die modellen moeten optimaliseren voor verschillende regio’s en tegelijkertijd zorgen voor hoge beschikbaarheid en lage latenties. Met dat in gedachten heeft Vultr Cloud Inference gecreëerd. Vultr Cloud Inference versnelt de time-to-market van AI-gedreven functies, zoals voorspellende en real-time besluitvorming, terwijl het een aantrekkelijke gebruikerservaring biedt in verschillende regio’s. Gebruikers kunnen hun eigen model meebrengen, getraind op elk platform, in de cloud of op locatie, en het kan naadloos geïntegreerd en ingezet worden op de wereldwijde NVIDIA GPU-aangedreven infrastructuur van Vultr. Met speciale compute clusters die beschikbaar zijn op zes continenten, zorgt Vultr Cloud Inference ervoor dat bedrijven kunnen voldoen aan lokale datasoevereiniteit, data residency en privacyregelgeving. Dit door hun AI-toepassingen in te zetten in regio’s die in lijn zijn met wettelijke vereisten en bedrijfsdoelstellingen. “Training biedt de basis voor AI om effectief te zijn, maar het is inferentie dat het potentieel van AI omzet in impact. Nu een toenemend aantal AI-modellen van training naar productie overgaat, explodeert het volume van inferentie workloads. Maar de meerderheid van de AI-infrastructuur is niet geoptimaliseerd om aan de wereldwijde inferentiebehoeften te voldoen”, zegt J.J. Kardwell, CEO van Vultr’s moederbedrijf Constant. “Met de lancering van Vultr Cloud Inference kunnen AI-innovaties een maximale impact hebben door AI-implementatie te vereenvoudigen en inferentie met lage latentie over de hele wereld te leveren via een platform dat is ontworpen voor schaalbaarheid, efficiëntie en wereldwijd bereik.” Vultr Cloud Inference biedt ongeëvenaarde impact, waaronder:
“De vraag naar geavanceerde AI-technologieën die AI-workloads wereldwijd van energie kunnen voorzien, neemt snel toe”, zegt Matt McGrigg, director of global business development, cloud partners bij NVIDIA. “De introductie van Vultr Cloud Inference stelt bedrijven in staat om AI-modellen die zijn getraind op de NVIDIA GPU-infrastructuur naadloos te integreren en in te zetten, waardoor ze hun AI-toepassingen wereldwijd kunnen schalen.” Vervroegde toegang van Vultr Cloud Inference is via registratie hier beschikbaar. |
### Over Vultr Vultr is op een missie om high-performance cloud computing gebruiksvriendelijk, betaalbaar en lokaal toegankelijk te maken voor bedrijven en ontwikkelaars wereldwijd. Vultr heeft meer dan 1,5 miljoen klanten in 185 landen bediend met flexibele, schaalbare, wereldwijde Cloud Compute-, Cloud GPU-, Bare Metal- en Cloud Storage-oplossingen. Vultr is opgericht door David Aninowsky en uitgegroeid tot ’s werelds grootste private cloud computing-bedrijf zonder ooit externe financiering te hebben aangetrokken. Meer informatie is te vinden op: www.vultr.com. |
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.