Industry Wire

Geplaatst door Supermicro

Supermicro introduceert een rack scale totaaloplossing voor AI-opslag

Super Micro Computer, Inc. (Nasdaq: SMCI) kondigt een full-stack geoptimaliseerde opslagoplossing voor AI- en ML data pipelines aan.

De nieuwe oplossing verbetert de time-to-value van AI door de volledige benutting van GPU-toevoerlijnen mogelijk te maken. Voor AI-training kunnen enorme hoeveelheden ruwe data op petaschaalcapaciteit worden verzameld, getransformeerd en geladen in de toevoerlijn van de AI-workflow van een organisatie. Deze multi-tiered Supermicro oplossing is bewezen effectief in het leveren van multi-petabyte data voor AI- en ML-bewerkingen in productieomgevingen. De volledige oplossing van Supermicro op multi-rack schaal is ontworpen om implementatierisico’s te minimaliseren, organisaties in staat te stellen modellen sneller te trainen en de resulterende gegevens sneller te gebruiken voor AI-toepassingen.

“Deze totaaloplossing bevat 20 PB aan krachtige flash-opslag per rack voor vier luchtgekoelde, op NVIDIA HGX H100 8-GPU gebaseerde servers of acht vloeistofgekoelde, op NVIDIA HGX H100 8-GPU gebaseerde servers met toepassingsoptimalisatie. Hierdoor kunnen klanten hun AI- en ML-toepassingen die draaien op rackschaal versnellen,” aldus Charles Liang, president en CEO van Supermicro. “De oplossing levert 270 GB/s leesdoorvoer en 3,9 miljoen IOPS per opslagcluster in de basisconfiguratie. Het kan gemakkelijk worden uitgebreid naar honderden petabytes. Met de nieuwste Supermicro systemen, PCIe 5.0 en E3.S-opslagapparaten, plus WEKA Data Platform-software, zien gebruikers aanzienlijke prestatieverbeteringen in AI-toepassingen. Onze nieuwe opslagoplossing voor AI-training optimaliseert het gebruik van onze geavanceerde GPU-serveroplossingen op rack-schaal, wat de TCO verlaagt en de AI-prestaties verbetert.”

Om de GPU’s van GPU-servers met lage latentie en hoge bandbreedte bij grootschalige AI-trainingsverwerking productief te houden, moeten petabytes aan ongestructureerde data beschikbaar zijn. Het uitgebreide portfolio van op Intel en AMD gebaseerde opslagservers van Supermicro vormt een cruciaal onderdeel van de AI pipeline. Deze omvatten de Supermicro Petascale All-Flash opslagservers, die een capaciteit hebben van 983.04* TB per server van NVMe Gen 5 flash capaciteit en tot 230 GB/s leesbandbreedte en 30 miljoen IOPS leveren. Deze oplossing omvat ook de Supermicro SuperServer 90-drive bay opslagservers voor de capaciteit objectlaag. Deze complete en geteste oplossing is wereldwijd beschikbaar voor klanten in ML, GenAI en andere rekenkundig complexe workloads.

De nieuwe opslagoplossing bestaat uit:
• All-Flash-laag – Supermicro Petascale-opslagservers
• Toepassingslaag – Supermicro 8U GPU-servers: AS -8125GS-TNHR en SYS-821GE-TNHR
• Objectlaag – Supermicro 4U SuperStorage-server met 90 drivecompartimenten en Quantum ActiveScale-objectopslag
• Software: WEKA Data Platform en Quantum ActiveScale objectopslag
• Switches: Supermicro InfiniBand- en Ethernet-switches

“De hoge prestaties en grote flashcapaciteit van de Supermicro All-Flash Petascale-opslagservers vormen een perfecte combinatie met de speciaal voor AI ontwikkelde dataplatformsoftware van WEKA. Samen bieden ze de ongeëvenaarde snelheid, schaal en eenvoud die worden geëist door de zakelijke AI-klanten van vandaag,” aldus Jonathan Martin, president van WEKA.

Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.

Deel dit bericht