Supermicro presenteert geavanceerde AI-datacentersoftware met AMD Instinct MI350 GPU
Supermicro heeft een nieuwe datacentersoplossing gelanceerd met de AMD Instinct MI350 GPU-serie, die zowel vloeistof- als luchtkoelingsopties ondersteunt.
Deze oplossing is gericht op high-performance workloads zoals AI, cloud en high-performance computing (HPC) en is geconfigureerd met twee AMD EPYC 9005 CPU's om prestaties en efficiëntie te maximaliseren.
Dit product is ideaal voor bedrijven die maximale prestaties willen behalen in AI-gebaseerde datacenters en tegelijkertijd de totale eigendomskosten willen verlagen.
Charles Liang, CEO van Supermicro, benadrukte ook dat het bedrijf een leider is in het beheer van AI- en HPC-systemen.
Met name Supermicro's 'Data Center Building Block Solution'-aanpak stelt klanten in staat om snel de gewenste datacenters te bouwen, en de toevoeging van de MI350 GPU versterkt de AI-oplossingscapaciteiten verder.
Deze GPU-server van de H14-generatie is ontworpen om zeer flexibel te zijn en AI-, cloud- en enterprise workloads effectief te verwerken.
Kort gezegd kunnen deze servers gestapeld worden als bouwblokken, waardoor bedrijven geleidelijk kunnen opschalen naargelang hun behoeften.
AMD CEO Lisa Su onthulde dat de MI350-serie ongeveer 40% kostenefficiënter is per token in vergelijking met concurrerende producten. Een 'token' verwijst hier naar eenheden zoals tekstfragmenten verwerkt door AI-modellen.
De 'form factor' blijft ook standaard, wat zorgt voor compatibiliteit met bestaande apparatuur.
Supermicro biedt high-performance 8 GPU-systemen met zowel vloeistof- als luchtkoelingsopties, zodat er gekozen kan worden op basis van de omgeving.
Met name het 4U vloeistofkoelsysteem beschikt over geavanceerde directe vloeistofkoelingstechnologie, ontworpen om het energieverbruik met maximaal 40% te verminderen en prestaties te verbeteren.
Om het duidelijk te maken: 4U of 8U verwijst naar de servermaat, waarbij 'U' staat voor rackunits, en lagere cijfers minder ruimte innemen.
Deze GPU's zijn uitgerust met het nieuwste HBM3e-geheugen van 288 GB, dat 1,5 keer meer geheugen biedt dan vorige generaties, wat de dataverwerkingssnelheid en AI-rekenkracht aanzienlijk verbetert.
FP16 en FP8 zijn numerieke types die in AI-berekeningen worden gebruikt en snelle berekeningen mogelijk maken met een hogere energie-efficiëntie door gebruik van laagprecisie dataformaten.
Industrieanalist Paul Shell legde uit dat naarmate AI-modellen groeien in omvang en complexiteit, deze nieuwe technologie-ondersteunde systemen snelle en efficiënte verwerking mogelijk maken.
Hij benadrukte ook dat dankzij flexibele koelopties deze systemen geschikte keuzes zijn voor cloudserviceproviders, opkomende cloudbedrijven en grote ondernemingen.
Samenvattend leveren deze systemen uitstekende prestaties bij zowel AI-training (model leren) als inference (werkelijke verwerking).
Nieuwe FP6- en FP4-numerieke types worden ook ondersteund, waardoor grotere en complexere AI-modellen effectief beheerd kunnen worden.
Tot slot zijn deze GPU-servers al te bestellen, met vloeistofgekoelde modellen in 4U en luchtgekoelde modellen in 8U.