Supermicro presenta soluzione avanzata per data center AI con GPU AMD Instinct MI350
Supermicro ha lanciato una nuova soluzione per data center con la serie GPU AMD Instinct MI350, supportando sia opzioni di raffreddamento a liquido che ad aria.
Questa soluzione è rivolta a carichi di lavoro ad alte prestazioni come AI, cloud e calcolo ad alte prestazioni (HPC), configurata con due CPU AMD EPYC 9005 per massimizzare prestazioni ed efficienza.
In realtà, questo prodotto è perfetto per le aziende che mirano a ottenere le massime prestazioni nei data center basati su AI riducendo al contempo il costo totale di proprietà.
Charles Liang, CEO di Supermicro, ha sottolineato anche che l’azienda è leader nella gestione di sistemi AI e HPC.
In particolare, l’approccio 'Data Center Building Block Solution' di Supermicro consente ai clienti di costruire rapidamente i data center desiderati e l’aggiunta della GPU MI350 ha ulteriormente rafforzato le capacità di soluzioni AI.
Questo server GPU di generazione H14 è progettato per essere altamente flessibile e capace di gestire efficacemente carichi di lavoro AI, cloud ed enterprise.
In poche parole, questi server possono essere impilati come blocchi da costruzione, permettendo alle aziende di scalare gradualmente secondo necessità.
Lisa Su, CEO di AMD, ha rivelato che la serie MI350 è circa il 40% più efficiente in termini di costi per token rispetto ai prodotti concorrenti, con 'token' che indica unità come frammenti di testo elaborati dai modelli AI.
Il 'form factor' mantiene inoltre lo standard, garantendo compatibilità con le apparecchiature esistenti.
Supermicro offre sistemi ad alte prestazioni con 8 GPU sia con raffreddamento a liquido sia ad aria, consentendo la scelta a seconda dell’ambiente.
In particolare, il sistema di raffreddamento a liquido da 4U presenta tecnologia avanzata di raffreddamento diretto progettata per ridurre il consumo energetico fino al 40% e migliorare le prestazioni.
Per chiarire, 4U o 8U si riferiscono alle dimensioni del server, dove 'U' indica unità di rack, e numeri inferiori significano meno spazio occupato.
Queste GPU sono dotate della più recente memoria HBM3e da 288 GB, offrendo 1,5 volte più memoria rispetto alle generazioni precedenti, migliorando significativamente la velocità di elaborazione dati e la potenza di calcolo AI.
FP16 e FP8 sono tipi numerici usati nei calcoli AI, che consentono calcoli rapidi e maggiore efficienza energetica con formati dati a bassa precisione.
L’analista del settore Paul Shell ha spiegato che, con l’aumento delle dimensioni e della complessità dei modelli AI, questi sistemi dotati di nuova tecnologia permettono un’elaborazione veloce ed efficiente.
Ha inoltre sottolineato che, grazie alle opzioni di raffreddamento flessibili, questi sistemi rappresentano una scelta adatta per fornitori di servizi cloud, startup del cloud e grandi aziende.
In breve, questi sistemi offrono ottime prestazioni sia nell’addestramento AI (apprendimento modello) sia nell’inferenza (elaborazione reale).
I nuovi tipi numerici FP6 e FP4 sono inoltre supportati, consentendo una gestione efficace di modelli AI più grandi e complessi.
Infine, questi prodotti di server GPU sono già ordinabili, con modelli raffreddati a liquido da 4U e raffreddati ad aria da 8U.