Supermicro stellt fortschrittliche AI-Datenzentrumslösung mit AMD Instinct MI350 GPU vor
Supermicro hat eine neue Datenzentrumslösung mit der AMD Instinct MI350 GPU-Serie vorgestellt, die sowohl Flüssigkeits- als auch Luftkühlungsoptionen unterstützt.
Diese Lösung richtet sich an Hochleistungsaufgaben wie KI, Cloud und High Performance Computing (HPC) und ist mit zwei AMD EPYC 9005 CPUs ausgestattet, um Leistung und Effizienz zu maximieren.
Tatsächlich ist dieses Produkt ideal für Unternehmen, die in KI-basierten Rechenzentren maximale Leistung erzielen und gleichzeitig die Gesamtbetriebskosten senken möchten.
Charles Liang, CEO von Supermicro, betonte ebenfalls, dass das Unternehmen führend im Umgang mit AI- und HPC-Systemen ist.
Insbesondere ermöglicht der „Data Center Building Block Solution“-Ansatz von Supermicro Kunden, die gewünschten Rechenzentren schnell aufzubauen, und durch die Ergänzung der MI350 GPU wurde die KI-Lösungsfähigkeit weiter gestärkt.
Dieser H14-Generation GPU-Server ist äußerst flexibel und für AI-, Cloud- und Enterprise-Workloads ausgelegt.
Kurz gesagt, diese Server können wie Bausteine gestapelt werden, sodass Unternehmen nach Bedarf schrittweise skalieren können.
AMD-CEO Lisa Su erklärte, dass die MI350-Serie etwa 40 % kosteneffizienter pro Token als Konkurrenzprodukte ist. Ein ‚Token‘ bezeichnet hier Einheiten wie Textabschnitte, die von AI-Modellen verarbeitet werden.
Der ‚Formfaktor‘ entspricht auch Standards und gewährleistet Kompatibilität mit bestehender Hardware.
Supermicro bietet Hochleistungs-8-GPU-Systeme sowohl mit Flüssigkeits- als auch mit Luftkühlung an und ermöglicht so die Wahl je nach Umgebung.
Insbesondere das 4U-Flüssigkeitskühlsystem verfügt über fortschrittliche direkte Flüssigkeitskühlungstechnologie, die den Stromverbrauch um bis zu 40 % senkt und die Leistung erhöht.
Zur Begriffsklärung: 4U oder 8U bezieht sich auf die Servergröße, wobei ‚U‘ für Rackeinheiten steht, und kleinere Zahlen weniger Platz beanspruchen.
Diese GPUs sind mit modernem HBM3e-Speicher von 288 GB ausgestattet und bieten damit 1,5-mal mehr Speicher als die Vorgängergeneration, was die Datenverarbeitungsgeschwindigkeit und KI-Berechnung erheblich verbessert.
FP16 und FP8 sind numerische Typen, die in der KI-Berechnung verwendet werden und schnelle Berechnungen bei zugleich höherer Energieeffizienz durch niedrigpräzise Datenformate ermöglichen.
Der Branchenanalyst Paul Shell erklärte, dass angesichts wachsender und komplexerer AI-Modelle diese technologiegestützten Systeme schnelle und effiziente Verarbeitung ermöglichen.
Er betonte zudem, dass dank der flexiblen Kühloptionen diese Systeme für Cloud-Dienstleister, aufstrebende Cloud-Unternehmen und Großunternehmen gleichermaßen geeignete Optionen darstellen.
Zusammengefasst liefern diese Systeme hervorragende Leistungen sowohl beim AI-Training (Modelllernen) als auch bei der Inferenz (tatsächliche Verarbeitung).
Neue FP6- und FP4-Numeriktypen werden ebenfalls unterstützt, was eine effektive Handhabung größerer und komplexerer AI-Modelle ermöglicht.
Abschließend sind diese GPU-Serverprodukte bereits bestellbar, mit Flüssigkeitskühlungsmodellen in 4U und Luftkühlungsmodellen in 8U verfügbar.