ASRock、NVIDIA GH200 スーパーチップを搭載した「世界最小」サーバー ラックを発表
ASRockは、NVIDIA の最先端の GH200 スーパーチップを統合する「最小」と言われる新しいサーバー ラックを推進しました。
ASRock の最新の AI ソリューションは、スペースを節約しながら効果的にエッジ環境に AI 導入できる機能を提供することを目的としており、NVIDIA GH200 Grace Hopper スーパーチップによって設計が可能になりました
AI とデータセンターの急速な進歩に伴い、企業は、必要なコンピューティング能力をより効果的に提供する新しいソリューションの開発競争を強化しています。同様に、ASRock 部門の 1 つである ASRock Rack は、新しい ASRock Rack MECAI-GH200 を発表しました。これは、Team Green の Grace Hopper GH200 モジュールを収容する最小のサーバー ラックであると宣伝されており、提供という点では間違いなく技術的な驚異です。限られた環境でも必要なパワーを発揮します。
ASRock Rack として、私たちは AI のメリットをあらゆる場所にもたらすことを目指しています。この目標を達成するために、当社はさまざまなシナリオに応じて、さまざまなフォーム ファクターで最も信頼性の高いサーバー ハードウェア ソリューションを提供することに尽力しています。私たちは、ここモバイル ワールド コングレスで、2024 年に向けた当社の野望の一例として、エッジで AI を実現する MECAI-GH200 を紹介する機会をうれしく思います。
– ASRock Rack 副社長、Hunter Chen 氏
Grace Hopper スーパーチップの仕様を簡単にまとめると、2 つの異なるバージョンがあり、1 つは H200 GPU を搭載した Grace Hopper スーパーチップ、もう 1 つは HBM3 メモリを備えた 72 Neoverse V2 コアを搭載した単一の Grace チップです。同時に、2 番目のモデルは Grace Superchip で、それぞれ 72 コア、LPDDR5x メモリを備えた合計 144 コアを備えた 2 つの Grace CPU を備えています。オンボード コンポーネント間のシームレスな統合を実現するために、NVIDIA は NVLink 相互接続テクノロジを利用し、利用可能なものから最高のパフォーマンスを提供します。
ASRock ソリューションに加えて、NVIDIA は次のようないくつかの Grace Hopper GH200 スーパーチップ製品も発表しました。
- サイズ 450 x 445 x 87 mm の ASRock RACK の MECAI は、通信ネットワークのエッジの限られたスペースで AI および 5G サービスを高速化します。
- ASUS の MGX サーバーである ESC NM2N-E1 は、最大 32 個の GH200 プロセッサを搭載し、空冷および水冷ノードをサポートするラックにスライドして収まります。
- Foxconn は、最大 8 個の NVIDIA H100 NVL PCIe Tensor コア GPU を搭載する 4U モデルを含む、一連の MGX システムを提供しています。
- GIGABYTE の XH23-VG0-MGX は、6 つの 2.5 インチ Gen5 NVMe ホットスワップ対応ベイと 2 つの M.2 スロットに大量のストレージを収容できます。
- Inventec のシステムは 19 インチおよび 21 インチのラックに挿入でき、3 つの異なる液体冷却実装を使用できます。
- Lenovo は、直接液体冷却をサポートするモデルを含む、さまざまな 1U、2U、および 4U MGX サーバーを提供しています。
- Pegatron の空冷 AS201-1N0 サーバーには、ソフトウェア デファインド、ハードウェア アクセラレーション ネットワーキング用の BlueField-3 DPU が搭載されています。
- QCT は、それぞれ 2 つの GH200 スーパーチップを搭載した 16 台の QuantaGrid D74S-IU システムを単一の QCT QoolRack にスタックできます。
- 9 個のホットスワップ可能なファンを備えた Supermicro の ARS-111GL-NHR は、空冷および水冷 GH200 および NVIDIA Grace CPU システムのポートフォリオの一部です。
- Wiwynn の SV7200H は 1U デュアル GH200 システムで、BlueField-3 DPU とリモート管理可能な液冷サブシステムをサポートしています。
- Wistron の MGX サーバーは、AI 推論および混合ワークロード用の 4U GPU システムで、1 つのシステムで最大 8 つのアクセラレータをサポートします。
ASRock の新しいコンパクトなサーバー ラックは、エッジ環境での AI 開発を促進し、市場で入手可能な最高のコンピューティング能力を提供します。
コメントを残す