Actualités économiques

Supermicro présente une solution avancée pour centres de données AI équipée du GPU AMD Instinct MI350

Supermicro a lancé une nouvelle solution pour centres de données intégrant la série GPU AMD Instinct MI350, prenant en charge les options de refroidissement liquide et à air.

Cette solution cible les charges de travail haute performance telles que l'IA, le cloud et le calcul haute performance (HPC), configurée avec deux processeurs AMD EPYC 9005 pour maximiser performance et efficacité.

En fait, ce produit est idéal pour les entreprises souhaitant obtenir des performances maximales dans les centres de données basés sur l'IA tout en réduisant le coût total de possession.

Charles Liang, PDG de Supermicro, a également souligné que l'entreprise est un leader dans la gestion des systèmes AI et HPC.

Particulièrement, l'approche 'Data Center Building Block Solution' de Supermicro permet aux clients de construire rapidement des centres de données selon leurs besoins, et l'ajout du GPU MI350 renforce encore les capacités des solutions IA.

Ce serveur GPU de génération H14 est conçu pour être très flexible et capable de gérer les charges de travail AI, cloud et entreprise efficacement.

En résumé, ces serveurs peuvent être empilés comme des blocs de construction, permettant aux entreprises d'évoluer progressivement selon leurs besoins.

Lisa Su, PDG d'AMD, a révélé que la série MI350 présente environ 40 % d'efficacité en coût par token comparé aux produits concurrents, le 'token' désignant des unités comme des fragments de texte traités par les modèles AI.

Le 'facteur de forme' respecte également les normes, assurant la compatibilité avec les équipements existants.

Supermicro propose des systèmes haute performance à 8 GPU avec options de refroidissement liquide et air, permettant de choisir selon l'environnement.

Particulièrement, le système de refroidissement liquide 4U utilise une technologie avancée de refroidissement direct, conçue pour réduire la consommation d'énergie jusqu'à 40 % et améliorer les performances.

Pour clarifier, 4U ou 8U se réfère à la taille du serveur, 'U' désignant une unité de rack, et les chiffres inférieurs indiquant un encombrement réduit.

Ces GPUs intègrent la mémoire HBM3e la plus récente de 288 Go, offrant 1,5 fois plus de mémoire que les générations précédentes, améliorant considérablement la vitesse de traitement des données et la puissance de calcul AI.

FP16 et FP8 sont des types numériques utilisés dans les calculs AI, permettant des calculs rapides tout en améliorant l'efficacité énergétique grâce à ces formats de données à faible précision.

L'analyste industriel Paul Shell a expliqué qu'à mesure que les modèles AI deviennent plus grands et complexes, ces systèmes équipés de nouvelles technologies permettent un traitement rapide et efficace.

Il a également souligné que grâce aux options de refroidissement flexibles, ces systèmes constituent un choix approprié pour les fournisseurs de services cloud, les jeunes entreprises cloud et les grandes entreprises.

En résumé, ces systèmes excellent tant dans l'entraînement AI (apprentissage du modèle) que dans l'inférence (traitement réel).

Les nouveaux types numériques FP6 et FP4 sont également pris en charge, permettant de gérer efficacement des modèles AI plus grands et complexes.

Enfin, ces produits de serveurs GPU sont déjà disponibles à la commande, avec des modèles refroidis par liquide en 4U et refroidis par air en 8U.

Actions associées

SMCI AMD