Supermicro presenta solución avanzada para data centers de IA con GPU AMD Instinct MI350
Supermicro lanzó una nueva solución para data centers que incorpora la serie de GPUs AMD Instinct MI350, con opciones de refrigeración líquida y por aire.
Esta solución está dirigida a cargas de trabajo de alto rendimiento como IA, nube y computación de alto rendimiento (HPC), configurada con dos CPUs AMD EPYC 9005 para maximizar rendimiento y eficiencia.
De hecho, este producto es ideal para empresas que buscan obtener el máximo rendimiento en data centers basados en IA mientras reducen el costo total de propiedad.
Charles Liang, CEO de Supermicro, destacó que la empresa es líder en manejar sistemas de IA y HPC.
Particularmente, el enfoque de 'Solución de Bloques Constructores para Data Centers' de Supermicro permite a los clientes construir rápidamente los data centers que desean, y la incorporación de la GPU MI350 ha fortalecido aún más las capacidades de soluciones de IA.
Este servidor GPU de generación H14 está diseñado para ser muy flexible y manejar eficazmente cargas de trabajo de IA, nube y empresariales.
En resumen, estos servidores se pueden apilar como bloques de construcción, permitiendo a las empresas escalar gradualmente según sus necesidades.
Lisa Su, CEO de AMD, reveló que la serie MI350 es aproximadamente un 40% más eficiente en costos por token en comparación con productos competidores, donde 'token' se refiere a unidades como fragmentos de texto procesados por modelos de IA.
El 'factor de forma' también mantiene estándares, asegurando compatibilidad con equipos existentes.
Supermicro ofrece sistemas de alto rendimiento con 8 GPUs en opciones de refrigeración líquida y por aire, lo que permite elegir según el entorno.
Especialmente, el sistema de refrigeración líquida de 4U presenta tecnología avanzada de enfriamiento directo que reduce el consumo energético hasta en un 40% y mejora el rendimiento.
Para aclarar, 4U o 8U se refiere al tamaño del servidor, donde 'U' es una unidad de rack, y valores menores significan menor espacio requerido.
Estas GPUs cuentan con la última memoria HBM3e de 288 GB, ofreciendo 1.5 veces más memoria que generaciones anteriores, mejorando significativamente la velocidad de procesamiento y capacidad de cómputo de IA.
FP16 y FP8 son tipos numéricos usados en cálculos de IA que permiten computación rápida y eficiencia energética mediante formatos de datos de baja precisión.
El analista industrial Paul Shell explicó que, conforme los modelos de IA crecen en tamaño y complejidad, estos sistemas con nueva tecnología permiten procesamientos rápidos y eficientes.
También destacó que, gracias a opciones de refrigeración flexibles, estos sistemas son una opción adecuada para proveedores de servicios en la nube, nuevas empresas de nube y grandes corporaciones.
En resumen, estos sistemas sobresalen tanto en entrenamiento de IA (aprendizaje de modelos) como en inferencia (procesamiento real).
Los nuevos tipos numéricos FP6 y FP4 también están soportados, lo que permite manejar de manera eficiente modelos de IA más grandes y complejos.
Finalmente, estos productos de servidores GPU ya están disponibles para orden, con modelos refrigerados por líquido en 4U y refrigerados por aire en 8U.