Industry Wire

Geplaatst door Cloudflare

Cloudflare vereenvoudigt ontwikkeling en toepassing AI-applicaties in samenwerking met Databricks, Hugging Face, Meta en Microsoft

Cloudflare gaat haar serverloze ontwikkelaarsplatform uitbreiden met functionaliteit om het bouwen en toepassen van AI-applicaties verder te vereenvoudigen. Daarvoor gaat deze wereldwijde aanbieder van cloudconnectiviteit nauwer samenwerken met Databricks, Hugging Face, Meta en Microsoft

Databricks en Cloudflare breiden hun samenwerking uit om MLflow-mogelijkheden naar ontwikkelaars te brengen die bouwen op Cloudflare’s serverloze ontwikkelaarsplatform. Cloudflare sluit zich aan bij het open source MLflow-project als actieve deelnemer om de kloof te overbruggen tussen het trainen van modellen en het eenvoudig toepassen ervan op Cloudflare’s wereldwijde netwerk. Daarop kunnen AI-modellen dicht bij eindgebruikers draaien voor een ‘low-latency’ ervaring.

Cloudflare gaat met Hugging Face het gebruik van de beste open AI-modellen toegankelijker en betaalbaarder te maken voor ontwikkelaars. Cloudflare wordt de eerste serverloze GPU voorkeurspartner voor het gebruik van Hugging Face-modellen. Daardoor kunnen ontwikkelaars snel en eenvoudig wereldwijd AI inzetten, zonder dat zij zich zorgen hoeven te maken over het beheer van de infrastructuur en zonder te betalen voor ongebruikte rekencapaciteit. Hugging Face gaat ook geoptimaliseerde generatieve AI-modellen aanbieden voor Cloudflare’s nieuwe AI-inferentieplatform.

Cloudflare gaat met Meta samenwerken om het Llama 2 open source large language model (LLM) wereldwijd beschikbaar te maken voor ontwikkelaars die AI-toepassingen willen bouwen op het serverloze Cloudflare Workers platform. Daarmee kunnen de beide partners lokale inferenties voor iedereen aanbieden, waarbij de privacy voorop staat.

Verder gaan Cloudflare en Microsoft het makkelijker maken om AI-toepassingen te draaien op de locatie die het beste past bij de behoeften van klanten. Door gebruik te maken van ONNX Runtime kunnen Cloudflare en Microsoft ervoor zorgen dat AI-modellen kunnen worden uitgevoerd waar verwerking het meest zinvol is, van de hyperscale cloud tot het hypergedistribueerde Edge Network en op de apparaten van gebruikers zelf.

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht