Supermicro lanceert AI SuperClusters

11 juni 2024

Super Micro Computer intro­du­ceert een kant-en-klaar vloei­stof­ge­koeld AI-data­center, ontworpen voor cloud-native oplos­singen die de adoptie van gene­ra­tive AI voor bedrijven in verschil­lende sectoren versnellen. 

Dit gebeurt met Super­Clus­ters die zijn geop­ti­ma­li­seerd voor het NVIDIA AI Enter­prise-soft­wa­re­plat­form om gene­ra­tive AI te ontwik­kelen en te implementeren. 

Met de vloei­stof­ge­koelde 4U van Super­micro kunnen de onlangs geïn­tro­du­ceerde Blackwell GPU’s van NVIDIA de AI-perfor­mance van 20 PetaFLOPS ten volle benutten op een enkele GPU. Ze getuigen van een 4X betere AI-training en 30X betere infe­ren­tie­pres­ta­ties dan bij de vorige GPU’s, zodat nog meer kosten worden bespaard. In over­een­stem­ming met zijn first-to-market strategie heeft Super­micro onlangs een complete serie van op de NVIDIA Blackwell archi­tec­tuur geba­seerde producten voor de nieuwe NVIDIA HGX B100, B200 en GB200 Grace Blackwell Superchip aangekondigd.

“Super­micro blijft de industrie leiden in het creëren en imple­men­teren van AI-oplos­singen met vloei­stof­koe­ling op rack-schaal,” zegt Charles Liang, president en CEO van Super­micro. “Data­cen­ters met vloei­stof­koe­ling kunnen vrijwel gratis zijn een extra bonus voor klanten door de voort­du­rende vermin­de­ring van het elek­tri­ci­teits­ver­bruik. Onze oplos­singen zijn geop­ti­ma­li­seerd met NVIDIA AI Enter­prise-software voor klanten in verschil­lende sectoren en we leveren wereld­wijde produc­tie­ca­pa­ci­teit met effi­ci­ëntie van wereld­klasse. Zo kunnen we onze vloei­stof­ge­koelde of lucht­ge­koelde kant-en-klare clusters met NVIDIA HGX H100 en H200 en de aanko­mende B100, B200 en GB200-oplos­singen in kortere tijd leveren. Van koel­platen tot CDU’s tot koel­to­rens, onze totale vloei­stof­koe­ling op rack­schaal kan het stroom­ver­bruik van data­cen­ters tot wel 40% verminderen.”

Super­micro presen­teert op COMPUTEX 2024 zijn nieuwe systemen die zijn geop­ti­ma­li­seerd voor de NVIDIA Blackwell GPU, waaronder een 10U lucht­ge­koeld en een 4U vloei­stof­ge­koeld systeem gebaseerd op de NVIDIA HGX B200. Daarnaast biedt Super­micro een 8U lucht­ge­koeld systeem op basis van de NVIDIA HGX B100, en het NVIDIA GB200 NVL72 rack van Super­micro met 72 onderling verbonden GPU’s en NVIDIA NVLink Switches. Verder intro­du­ceert Super­micro de nieuwe NVIDIA MGX™ systemen, die de NVIDIA H200 NVL PCIe GPU’s en de onlangs aange­kon­digde NVIDIA GB200 NVL2-archi­tec­tuur ondersteunen.

“Gene­ra­tive AI zorgt voor een reset van de hele computing stack – nieuwe data­cen­ters krijgen GPU-acce­le­ratie en worden geop­ti­ma­li­seerd voor AI,” zegt Jensen Huang, oprichter en CEO van NVIDIA. “Super­micro heeft geavan­ceerde NVIDIA-versnelde computer- en netwerk­op­los­singen ontworpen, waardoor de wereld­wijde data­cen­ters van biljoenen dollars kunnen worden geop­ti­ma­li­seerd voor het AI-tijdperk.”

De snelle ontwik­ke­ling van grote taal­mo­dellen en de voort­du­rende nieuwe intro­duc­ties van open-source modellen zoals Llama‑3 van Meta en Mixtral 8x22B van Mistral maken de huidige geavan­ceerde AI-modellen toegan­ke­lijker voor bedrijven. De noodzaak om de AI-infra­struc­tuur te vereen­vou­digen en op de meest kosten­ef­fi­ci­ënte manier toegan­ke­lijk te maken, is van het grootste belang om de huidige razend­snelle AI-revolutie te onder­steunen. De Super­micro cloud-native AI Super­Cluster overbrugt de kloof tussen eenvou­dige, directe toegang tot de cloud en draag­baar­heid. Het maakt gebruik van NVIDIA AI Enter­prise om AI-projecten naadloos van pilot naar productie te brengen, ongeacht de schaal. Dit biedt de flexi­bi­li­teit om overal te draaien met veilig beheerde gegevens, inclusief zelf­ge­hoste systemen of grote data­cen­ters op locatie.

Bedrijven in verschil­lende sectoren gaan snel expe­ri­men­teren met gene­ra­tive AI-gebruiks­ge­vallen. Super­micro werkt nauw samen met NVIDIA om een naadloze en flexibele overgang te garan­deren van het expe­ri­men­teren en testen van AI-toepas­singen naar de imple­men­tatie van AI in productie en groot­scha­lige data­cen­ters. Dit wordt bereikt door opti­ma­li­satie op rack- en clus­ter­ni­veau met het NVIDIA AI Enter­prise-soft­wa­re­plat­form, waardoor een soepel traject ontstaat van verken­ning tot groot­scha­lige imple­men­tatie van AI.

Managed services kunnen infra­struc­tuur­keuzes, het delen van gegevens en de controle over de gene­ra­tive AI-strategie in gevaar brengen. NVIDIA NIM-micro­ser­vices, onderdeel van NVIDIA AI Enter­prise, bieden het voordeel van beheerde gene­ra­tive AI en open-source voor een probleem­loze imple­men­tatie. De veel­zij­dige inference runtime met micro­ser­vices versnelt de inzet van gene­ra­tive AI voor een breed scala aan modellen, van open-source tot NVIDIA’s foun­da­tion-modellen. Daarnaast maakt NVIDIA NeMo maatwerk in model­ont­wik­ke­ling mogelijk met data­cu­ratie, geavan­ceerde aanpas­sing en retrieval-augmented gene­ra­tion (RAG) voor oplos­singen die klaar zijn voor de onder­ne­ming. In combi­natie met Supermicro’s Super­Clus­ters, ontworpen voor NVIDIA AI Enter­prise, biedt NVIDIA NIM de kortste weg naar schaal­bare, versnelde productie-imple­men­ta­ties met gene­ra­tive AI.

Pin It on Pinterest

Share This