NVIDIA は、120GB HBM2e メモリを搭載したサード ホッパー H100 GPU を発表する可能性があります

NVIDIA は、120GB HBM2e メモリを搭載したサード ホッパー H100 GPU を発表する可能性があります

NVIDIAは、 2022 年3 月のGTCの基調講演でホッパー アーキテクチャを紹介しました。GraceNVIDIAのHopperは、 1 つのマザーボードに2 つのチップを搭載したスーパーチップです。1つはNVIDIA独自のHopper GPUで、もう1つはやはりNVIDIA独自のGraceです。Hopper GPU について具体的に言えば、このアーキテクチャはLovelaceと類似していますが、AI とデータ センターを対象としています。

進行中の 3 番目のオプション

Team green は、 Hopper が900 GB/s の合計スループットを実現する第 4 世代 NVLinkテクノロジを発表しました。もちろん、NVLink を使用できない場合は、PCIe もオプションですが、 NVLink よりも7 倍遅くなります。

これまでのところ、NVIDIA は、 SXM5ボードとPCIeオプションの2 つのオプションを発表しています。主な違いはメモリ構成にあります。SXM5には新しく高速なHBM3 メモリが搭載されていますが、PCIe バリアントはHBM2eを使用しています(どちらも 80GB のメモリを搭載しています)。

ホッパー NVIDIA HBM3 | NVIDIA

Zed__Wangによって専用化された 3 番目のバリアントには、他のバージョンの1.5 倍の120 GBのメモリが付属しています。これは、HBM2e メモリを使用する別の PCIe バリアント (NVLink なし) であることに注意してください。このリークに関するもう 1 つの興味深い事実は、この写真がおそらく設計された Lovelace のものであることです。これで、これらのリークがどこから来たのかがわかりました。

可能 H100 120GB | Zed_Wang経由のwww.s-ss.cc

パフォーマンス

120GB のH100バリアントは、 s-ssによると、16896 個のCudaコアと3TB /秒のメモリ帯域幅を備えたフル H100 GPU チップを使用すると報告されています。フル H100 GPU には18432 個のCudaコアが付属していますが。パフォーマンスに関しては、単精度浮動小数点の処理能力は、対応する 60TFLOPS である SXM5 とほぼ同じです

発売日

120GB H100 バリアントの正式なリリース日はありませんが、Jensen氏によると、Hopper は完全に生産されており、GPU は早ければ10 月に到着する予定です。おそらくNVIDIAは、世界中で話題になっている次のCES 2023展示会のためにこのオプションを保存しました. NVIDIA、AMD、Intel の 3 つの巨人すべてが、CPU であれ GPU であれ、このイベントで対応する予算を発表することを期待しています。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です