Super Micro Computer, Inc. (SMCI) kondigt nieuwe systemen aan op basis van NVIDIA GPU’s en 3e generatie Intel Xeon processoren met ingebouwde AI-versnellers (Supermicro X12-serie). Deze servers zijn ontwikkeld voor veeleisende AI-toepassingen met een lage latentie en een hoge applicatie-performance. Het 2U NVIDIA HGX(TM) A100 4-GPU-systeem is geschikt voor het implementeren van moderne AI-trainingsclusters op schaal met high-speed-CPU-GPU- en GPU-GPU- interconnect. Het Supermicro 2U 2-node-systeem reduceert het energieverbruik en de kosten door het delen van voedingen en koelventilatoren, vermindert de uitstoot van CO2 en ondersteunt een reeks discrete GPU-versnellers, die kunnen worden afgestemd op de workload. Beide systemen omvatten geavanceerde hardware securityfuncties die worden ingeschakeld door de nieuwste Intel Software Guard-extensies (Intel SGX).
“Supermicro heeft een nieuw portfolio met hoogwaardige, op GPU-gebaseerde systemen ontwikkeld, die de kosten, de ruimte en het stroomverbruik verminderen vergeleken met andere ontwerpen op de markt,” aldus Charles Liang, president en CEO van Supermicro. “Met ons innovatieve design kunnen we klanten NVIDIA HGX A100 (codenaam Redstone) 4-GPU-versnellers bieden voor AI- en HPC workloads in dichte 2U-form factors. Ook is ons 2U 2-node-systeem speciaal ontwikkeld om stroom- en koelcomponenten te delen, die OPEX en de impact op het milieu verminderen.”
De 2U NVIDIA HGX A100-server is gebaseerd op de 3e generatie Intel Xeon processoren met Intel Deep Learning Boost-technologie en geoptimaliseerd voor analyses, training en inference-workloads. Het systeem is tot vier keer sneller dan de vorige generatie GPU’s voor complexe conversationele AI-modellen, zoals BERT large inference en levert een tot drie keer hogere prestatie voor BERT large AI-training.
Daarnaast maken de geavanceerde warmte- en koelontwerpen deze systemen ideaal voor hoogwaardige clusters met node-dichtheid en vermogensefficiëntie. Vloeistofkoeling is ook beschikbaar voor deze systemen, met nog meer OPEX-besparingen als gevolg. Intel Optane Persistent Memory (PMem) wordt ook ondersteund op dit platform, waardoor aanzienlijk grotere modellen in het geheugen kunnen worden gehouden, dicht bij de CPU, voordat ze worden verwerkt via de GPU’s. Voor toepassingen die interactie met meerdere systemen tegelijk vereisen, kan het systeem ook worden uitgerust met vier NVIDIA ConnectX®-6 200Gb/s InfiniBand-kaarten om GPUDirect RDMA met een 1:1 GPU-to-DPU-verhouding te ondersteunen.
De nieuwe 2U 2-node is een energiezuinige, resource-besparende architectuur, die voor elke node is ontwikkeld om tot drie GPU’s met een dubbele breedte te ondersteunen. Elk node heeft ook een enkele 3e Generatie Intel Xeon processor met maximaal 40 cores en ingebouwde AI- en HPC-versnelling. Een breed scala aan AI-, rendering- en VDI- toepassingen zal profiteren van dit evenwicht tussen CPU’s en GPU’s. Uitgerust met de geavanceerde I/O-Module (AIOM)-uitbreidingsslots van Supermicro voor snelle en flexibele netwerkmogelijkheden, kan het systeem ook een enorme datastroom verwerken voor veeleisende AI/ML-toepassingen, uitgebreide leertraining en inferencing, terwijl de workloads en leermodellen worden beveiligd. Het is ook ideaal voor multi-instance high-end Cloudgaming en vele andere VDI-toepassingen, waarbij intensieve berekeningen moeten worden uitgevoerd. Daarnaast zal Virtual Content Delivery Networks (vCDNs) kunnen voldoen aan de toenemende vraag naar streamingdiensten. De redundantie van de stroomvoorziening is ingebouwd, aangezien beide nodes de stroomvoorziening van de aangrenzende node kunnen gebruiken in het geval van een storing.