愛好家は、AMDの新しいInstinctGPUについてさまざまな感情を抱いています
AMD Instinctは、AMDのプロフェッショナルGPUブランドです。これらは、AI、機械学習などの重いワークロードによく使用され、データセンターのNVIDIAGPUと同等の機能を果たします。
AMDは2021年にInstinctMI250GPUをリリースしました。比較的高価であまり使用されていないGPUであるため、ベンチマークが多くありませんでした。最近、 TwitterのProjectPhysXが、このGPUでいくつかのベンチマークを実行した後、彼女の意見を共有しました。彼女の考えは非常に興味深いものでした。
一連のツイート(スレッド)で、彼女は期待できるパフォーマンスといくつかの疑問符について意見を述べました。
MI250にはAMDによる誤解を招く説明があります。このGPUは「シングルチップレットGPU」として請求されますが、2つのGPUを備えた2つのGCD(グラフィックスコンプレックスアレイ)があります。これは、MCM(マルチチップモジュール)チップであることを意味します。128GBのGPUメモリが2つのGCD間で共有されます。
それでは、何が問題なのですか?問題は、あるGPUが別のGPU上のデータに直接アクセスできないことです。これをAMDのSLIでの試みと考えてください。ただし、機械学習です。多くのアルゴリズムとソフトウェアは、複数のGPUで動作するように構成されていません。つまり、128GBのメモリが64GBに偽装されることがよくあります。一部のアルゴリズムは、ソフトウェアのボトルネックのために実行速度がさらに遅くなる可能性があります。
ProjectPhysXはさらに、紙の上ではMI200はまともで、NVIDIAのA100よりも高速に見えることもあると述べています。ただし、ボルツマン格子などの帯域幅に制約のあるアプリケーションやベンチマークでは、このGPUはNVIDIAA100と同等のパフォーマンスを提供できません。その理由は、NVIDIAKeplerアーキテクチャと同じくらい非効率的であるためです。NVIDIAKeplerアーキテクチャは約10年前のものです。
チャートは大きく見えるかもしれませんが、私たちの主な焦点は、InstinctMI200よりもはるかに優れたパフォーマンスを備えたNVIDIAA100にあるはずです。
すべての希望が失われるわけではありません。これは、2倍のストレージ(MI200の64GBに対して32GB)を備えた前世代(MI100)よりも大幅に改善されているためです。さらに、ノードも大幅に改善されており、高速相互接続を備えた4つのソケットに8つのGPUが搭載されています。
AMDは、高速で費用対効果の高いコンピューティングソリューションでデータセンターをターゲットにしていますが、NVIDIAは、 AIワークロード向けの今後のHopperアーキテクチャで依然として真の脅威をもたらします。
MI250の詳細については、こちらをご覧ください。
コメントを残す