経済ニュース

スーパー マイクロ、AMD Instinct MI350 GPU 搭載の最先端AIデータセンターソリューションを発表

スーパー マイクロはAMD Instinct MI350シリーズGPUを搭載した新型データセンターソリューションを発表し、液冷と空冷の両方のオプションがサポートされています。

このソリューションはAI、クラウド、高性能コンピューティング(HPC)などの高負荷作業を対象としており、AMD EPYC 9005 CPU 2基を組み合わせて性能と効率性を最大化しています。

実際、この製品はAIベースのデータセンターで最大の性能を発揮しながら、総所有コストを削減したい企業に最適です。

スーパー マイクロのCEOチャールズ・リアン氏は、同社がAIとHPCシステムのリーディングカンパニーであることを強調しました。

特に、スーパー マイクロの「データセンタービルディングブロックソリューション」方式は、顧客が望むデータセンターを迅速に構築でき、MI350 GPUの追加によりAIソリューションの能力がさらに強化されました。

このH14世代GPUサーバーは非常に柔軟で、AI、クラウド、エンタープライズのワークロードを効率よく処理できるよう設計されています。

簡単に言えば、これらのサーバーは建築用ブロックのように積み重ねられ、企業が必要に応じて段階的に拡張するのに適しています。

AMDのCEOリサ・スー氏は、MI350シリーズが競合製品に比べてトークンあたり約40%のコスト効率の向上を実現していると述べました。ここで「トークン」とは、AIモデルが処理するテキストの断片などの単位を指します。

フォームファクターも標準を維持しており、既存の機器との互換性があります。

スーパー マイクロは高性能な8 GPUシステムを液冷と空冷の両方で提供しており、各環境に合わせて選択可能です。

特に4Uサイズの液冷システムには改善された直接液冷技術が搭載されており、消費電力を最大40%削減し、性能を強化できるよう設計されています。

用語を整理すると、4Uや8Uはサーバーのサイズを示し、Uはサーバーラックの単位で、数字が小さいほど占有スペースが小さくなります。

これらのGPUは最新のHBM3eメモリ288GBを搭載し、前世代よりも1.5倍多いメモリ容量を提供し、データ処理速度とAI計算能力が大幅に向上しています。

FP16およびFP8はAI演算に使用される数値形式で、これらの低精度データ形式を使用することで高速な計算とエネルギー効率の向上が可能です。

産業アナリストのポール・シェル氏は、AIモデルがより大きく複雑になる中、このような新技術を搭載したシステムが高速かつ効率的に処理を可能にすると説明しました。

また、クラウドサービス提供者や新興クラウド企業、大企業にとっても柔軟な冷却オプションが適切な選択肢となることを強調しました。

言い換えれば、これらのシステムはAIのトレーニング(モデル学習)だけでなく推論(実際の処理)にも優れた性能を発揮します。

新たにFP6およびFP4数値タイプもサポートし、より大きく複雑なAIモデルを効果的に扱うことが可能になりました。

最後に、これらのGPUサーバー製品はすでに注文可能で、液冷モデルは4U、空冷モデルは8Uとして提供されています。

関連銘柄

SMCI AMD