Supermicro lancia tre SuperCluster di intelligenza artificiale generativa basati su NVIDIA, full-stack e pronti all'implementazione, scalabili dalle infrastrutture aziendali alle grandi infrastrutture LLM

Compatibilidad
Ahorrar(0)
Compartir

I SuperCluster full-stack includono configurazioni di rack per inferenza su scala cloud e formazione con raffreddamento ad aria e a liquido e con le più recenti GPU NVIDIA Tensor Core, reti e software NVIDIA AI Enterprise

SAN JOSE, California, 19 marzo 2024 /PRNewswire/ -- Supermicro, Inc. , un fornitore di soluzioni IT totali per IA, cloud, storage e 5G/Edge, annuncia il suo ultimo portafoglio per accelerare l'implementazione dell'IA generativa. Le soluzioni Supermicro SuperCluster forniscono elementi fondamentali per il presente e il futuro dell'infrastruttura LLM (Large Language Model).

https://mma.prnewswire.com/media/2365342/Super_Micro_Computer_Inc.jpg [https://mma.prnewswire.com/media/2365342/Super_Micro_Computer_Inc.jpg]

Le tre potenti soluzioni Supermicro SuperCluster sono ora disponibili per carichi di lavoro di intelligenza artificiale generativa. I sistemi 4U raffreddati a liquido o i sistemi 8U raffreddati ad aria sono appositamente realizzati e progettati per potenti prestazioni di formazione degli LLM, nonché per lotti di grandi dimensioni e inferenza LLM ad alto volume. Un terzo SuperCluster, con sistemi Supermicro NVIDIA MGX((TM)) 1U raffreddati ad aria, è ottimizzato per l'inferenza su scala cloud.

"Nell'era dell'intelligenza artificiale, l'unità di elaborazione viene ora misurata in cluster, non solo in termini di numero di server, e con la nostra capacità produttiva globale ampliata di 5.000 rack al mese, possiamo fornire ai nostri clienti cluster di IA generativa completi più velocemente di quanto non sia mai stato fatto", spiega Charles Liang, presidente e CEO di Supermicro. "Un cluster da 64 nodi abilita 512 GPU NVIDIA HGX H200 con 72 TB di HBM3e attraverso un paio dei nostri blocchi costitutivi del cluster scalabili con NVIDIA Quantum-2 InfiniBand da 400 Gb/s e reti Ethernet Spectrum-X. Le soluzioni SuperCluster di Supermicro combinate con il software NVIDIA AI Enterprise sono ideali per le infrastrutture aziendali e cloud per addestrare gli odierni LLM con fino a trilioni di parametri. Le GPU, le CPU, la memoria, lo storage e la rete interconnessi, se distribuiti su più nodi in rack, costituiscono le basi dell'intelligenza artificiale di oggi. Le soluzioni SuperCluster di Supermicro forniscono elementi fondamentali per l'intelligenza artificiale generativa e gli LLM in rapida evoluzione".

Per ulteriori informazioni sui Supermicro AI SuperClusters, visitare www.supermicro.com/ai-supercluster [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=4188969471&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4118485-1%26h%3D352009463%26u%3Dhttps%253A%252F%252Fwww.supermicro.com%252Fai-supercluster%26a%3Dwww.supermicro.com%252Fai-supercluster&a=www.supermicro.com%2Fai-supercluster]

"Le più recenti tecnologie GPU, CPU, di networking e software di NVIDIA consentono ai produttori di sistemi di accelerare una gamma di carichi di lavoro IA di nuova generazione per i mercati globali", aggiunge Kaustubh Sanghani, vicepresidente GPU Product Management NVIDIA. "Sfruttando la piattaforma di calcolo accelerato NVIDIA con i prodotti basati sull'architettura Blackwell, Supermicro fornisce ai clienti i sistemi server all'avanguardia di cui hanno bisogno e che possono essere facilmente distribuiti nei data center".

I sistemi Supermicro 4U NVIDIA HGX H100/H200 a 8 GPU [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=1365551180&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4118485-1%26h%3D2923108831%26u%3Dhttps%253A%252F%252Fwww.supermicro.com%252Fen%252Fproducts%252Fsystem%252Fgpu%252F4u%252Fsys-421ge-tnhr2-lcc%26a%3DSupermicro%2B4U%2BNVIDIA%2BHGX%2BH100%252FH200%2B8-GPU&a=Supermicro+4U+NVIDIA+HGX+H100%2FH200+a+8+GPU] raddoppiano la densità del sistema 8U raffreddato ad aria utilizzando il raffreddamento a liquido, riducendo il consumo energetico e il TCO del data center. Questi sistemi sono progettati per supportare le GPU basate sull'architettura NVIDIA Blackwell di nuova generazione. L'unità di distribuzione del raffreddamento (CDU) e il collettore (CDM) Supermicro sono le arterie principali per la distribuzione del liquido raffreddato alle piastre fredde D2C (direct-to-chip) personalizzate di Supermicro, mantenendo le GPU e CPU alla temperatura ottimale, con conseguenti massime prestazioni. Questa tecnologia di raffreddamento consente una riduzione fino al 40% dei costi elettrici per l'intero data center e consente di risparmiare spazio nel data center. Ulteriori informazioni sulla tecnologia di raffreddamento a liquido Supermicro: https://www.supermicro.com/en/solutions/liquid-cooling [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=2920691055&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4118485-1%26h%3D3307996712%26u%3Dhttps%253A%252F%252Fwww.supermicro.com%252Fen%252Fsolutions%252Fliquid-cooling%26a%3Dhttps%253A%252F%252Fwww.supermicro.com%252Fen%252Fsolutions%252Fliquid-cooling&a=https%3A%2F%2Fwww.supermicro.com%2Fen%2Fsolutions%2Fliquid-cooling]

I sistemi dotati di 8 GPU NVIDIA HGX H100/H200 sono ideali per l'addestramento dell'intelligenza artificiale generativa. Le GPU interconnesse ad alta velocità tramite NVIDIA(®) NVLink(®), l'elevata larghezza di banda della memoria GPU e la capacità sono fondamentali per l'esecuzione di modelli LLM a costi contenuti. Il Supermicro SuperCluster crea un enorme pool di risorse GPU che agiscono come un singolo supercomputer IA.

Che si tratti di adattare un enorme modello di base addestrato su un set di dati con trilioni di token a partire da zero o di creare un'infrastruttura di inferenza LLM su scala cloud, la topologia di rete "spine and leaf" con strutture da 400 Gb/s non bloccanti consente di scalare da 32 nodi a migliaia di nodi senza soluzione di continuità. Con il raffreddamento a liquido completamente integrato, i processi di test comprovati di Supermicro convalidano accuratamente l'efficacia e l'efficienza operativa prima della spedizione.

I progetti di sistema NVIDIA MGX((TM)) di Supermicro con i superchip NVIDIA GH200 Grace Hopper creeranno un modello per i futuri cluster IA che risolveranno un collo di bottiglia cruciale nell'intelligenza artificiale generativa: la larghezza di banda della memoria della GPU e la capacità di eseguire modelli LLM con dimensioni batch di inferenza elevate per ridurre i costi operativi. Il cluster da 256 nodi costituisce un potente sistema di inferenza ad alto volume su scala cloud, facilmente distribuibile e scalabile.

SuperCluster con sistema raffreddato a liquido 4U in 5 rack o sistema raffreddato ad aria 8U in 9 rack

    --  256 GPU NVIDIA H100/H200 Tensor Core in un'unità scalabile
    --  Il raffreddamento a liquido consente di avere 512 GPU, 64 nodi, con lo
        stesso ingombro della soluzione da 256 GPU raffreddate ad aria, a 32
        nodi
    --  20 TB di HBM3 con NVIDIA H100 o 36 TB di HBM3e con NVIDIA H200 in
        un'unica unità scalabile
    --  La rete 1:1 offre fino a 400 Gbps a ciascuna GPU per abilitare GPUDirect
        RDMA e Storage per l'addestramento di modelli linguistici di grandi
        dimensioni con fino a trilioni di parametri
    --  Fabric switch Ethernet 400G InfiniBand o 400GbE con topologia di rete
        spine-leaf altamente scalabile, inclusa la piattaforma Ethernet NVIDIA
        Spectrum-X e NVIDIA Quantum-2 InfiniBand.
    --  Fabric di storage della pipeline di dati IA personalizzabile con opzioni
        di file system parallelo avanzat
    --  Software NVIDIA AI Enterprise 5.0, che offre il supporto per i nuovi
        microservizi di inferenza NVIDIA NIM
        [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=1521689541&u=https%3A%2
        F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4118485-1%26h%3D342063
        0513%26u%3Dhttps%253A%252F%252Fnvidianews.nvidia.com%252Fnews%252Fgenera
        tive-ai-microservices-for-developers%26a%3DNVIDIA%2BNIM&a=NVIDIA+NIM]
        che accelerano l'implementazione di modelli IA su larga scala

SuperCluster con sistema NVIDIA MGX 1U raffreddato ad aria in 9 rack

    --  256 superchip GH200 Grace Hopper in un'unica unità scalabile
    --  Fino a 144 GB di HBM3e + 480 GB di memoria unificata LPDDR5X adatta per
        inferenza su scala cloud, volume elevato, bassa latenza e dimensioni
        batch elevate, in grado di adattarsi a un modello di parametri da oltre
        70 B in un nodo.
    --  Fabric switch Ethernet 400G InfiniBand o 400GbE con topologia di rete
        spine-leaf altamente scalabile
    --  Fino a 8 dispositivi di storage E1.S NVMe integrati per nodo
    --  Fabric storage di pipeline di dati IA personalizzabile con DPU NVIDIA
        BlueField(®)-3 e opzioni di file system parallelo avanzato per fornire
        accesso allo storage a throughput elevato e bassa latenza a ciascuna GPU
    --  Software NVIDIA AI Enterprise 5.0

Con le massime prestazioni di rete ottenibili per la connettività GPU-GPU, le soluzioni SuperCluster di Supermicro sono ottimizzate per la formazione di LLM, l'apprendimento profondo e l'inferenza di volumi elevati e dimensioni batch elevate. I test di convalida L11 e L12 di Supermicro combinati con il suo servizio di implementazione in loco offrono ai clienti un'esperienza integrata. I clienti ricevono unità scalabili plug-and-play per una facile implementazione in un data center e tempi più brevi di raggiungimento dei risultati.

Informazioni su Super Micro Computer, Inc.

Supermicro è un leader globale nello sviluppo di soluzioni IT totali ottimizzate per le applicazioni. Azienda fondata e con sede a San Jose, California, Supermicro è impegnata a fornire innovazioni per il mercato delle infrastrutture aziendali, del cloud, dell'IA e per il 5G telco/edge IT. Siamo un produttore di soluzioni IT complete che propone server, IA, storage, IoT, sistemi switch, software e servizi di supporto. La competenza di Supermicro nel campo della progettazione di schede madri, alimentazione e chassis favorisce ulteriormente le attività di sviluppo e produzione dell'azienda, e rende possibile l'innovazione di prossima generazione, dal cloud all'edge, per i nostri clienti globali. Le nostre soluzioni sono progettate e realizzate internamente (negli Stati Uniti, a Taiwan e nei Paesi Bassi), sfruttando le operazioni globali per generare scalabilità ed efficienza, e ottimizzate per migliorare il TCO e ridurre l'impatto ambientale (green computing). Il premiato portafoglio delle Server Building Block Solutions(®) consente ai clienti di scegliere l'ottimizzazione maggiormente in linea con i requisiti specifici dei loro carichi di lavoro e applicazioni, scegliendo all'interno di una vasta famiglia di sistemi realizzati con i nostri 'blocchi costruttivi' flessibili e riutilizzabili che supportano una serie completa di fattori di forma, processori, memorie, GPU, storage, reti, alimentazione e raffreddamento (ad aria, ad aria libera o a liquido).

Supermicro, Server Building Block Solutions e We Keep IT Green sono marchi di fabbrica e/o marchi di fabbrica registrati di Super Micro Computer, Inc.

Tutti gli altri marchi, nomi e marchi di fabbrica sono di proprietà dei rispettivi titolari.

https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg [https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg]

Foto - https://mma.prnewswire.com/media/2365342/Super_Micro_Computer_Inc.jpg [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=3139113021&u=https%3A%2F%2Fc212.net%2Fc%2Flink%2F%3Ft%3D0%26l%3Den%26o%3D4118485-1%26h%3D2586132600%26u%3Dhttps%253A%252F%252Fmma.prnewswire.com%252Fmedia%252F2365342%252FSuper_Micro_Computer_Inc.jpg%26a%3Dhttps%253A%252F%252Fmma.prnewswire.com%252Fmedia%252F2365342%252FSuper_Micro_Computer_Inc.jpg&a=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F2365342%2FSuper_Micro_Computer_Inc.jpg]
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg [https://c212.net/c/link/?t=0&l=it&o=4118485-1&h=1528210965&u=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F1443241%2FSupermicro_Logo.jpg&a=https%3A%2F%2Fmma.prnewswire.com%2Fmedia%2F1443241%2FSupermicro_Logo.jpg]

Photo: https://mma.prnewswire.com/media/2365342/Super_Micro_Computer_Inc.jpg
https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg Super Micro Computer, Inc.

CONTACT: CONTATTO: Greg Kaufman, Super Micro Computer, Inc.,
PR@supermicro.com

Imágenes (1)
Detalles de contacto
PRNewswire