NVIDIA は、次期 Hopper H200 および HBM3E メモリの購入に多額の費用を費やしています。 Blackwell B100 AI GPU

NVIDIA は、次期 Hopper H200 および HBM3E メモリの購入に多額の費用を費やしています。 Blackwell B100 AI GPU

NVIDIA は、次世代 Hopper H200 および HBM3E メモリに十分な在庫を確保しようとして、HBM3E メモリに多額の費用を費やしました。 Blackwell B100 AI GPU。

NVIDIA、次世代 Hopper H200 と H200 で 2024 年の AI 競争を促進Blackwell B100 GPU、HBM3Eメモリ供給を確保するために数十億ドル相当を発注

このアプローチでは、他の企業のアクセスが制限され、リソースを取得できなくなるか、リソースへのアクセスが制限されます。

韓国メディアによると、NVIDIA は HBM3E メモリに対して約 7,000 億ウォンから 1 兆ウォンを前払いしているとのことで、数字にはばらつきがありますが、業界からの膨大な需要を考慮すると、実際の金額は 1 兆ウォンに近いと予想されます。これは前払いだけで約 7 億 7,500 万米ドルに相当し、実際の金額は 10 億米ドルを超える可能性があります。

AI 業界は急速に進化しており、インテルやインテルなどの企業が参入しています。 AMDはこの分野でNVIDIAを追い詰めるために開発を強化しているため、チームグリーンは優位性を維持するために「先制」措置を講じる必要がある

NVIDIA が中国向け H20 AI GPU の発売を来年に延期するとの報道 1
画像出典: NVIDIA

HBM3E と言えば、現在、NVIDIA は次世代 Blackwell AI GPU でのHBM3e のデビューを計画しており、発売が噂されています。 2024 年第 2 四半期までに、チップレット設計の採用により、ワットあたりのパフォーマンスが決定的に向上します。さらに、NVIDIA の Hopper H200 GPU にも世界最速の HBM3E メモリが搭載される予定であるため、このソリューションは NVIDIA にとって非常に重要な意味を持ちます。 AI とその分野での成功の条件は次のとおりです。 HPC 市場

NVIDIA は、データセンター部門からの収益創出という点で大きな期待を寄せており、他社よりも一歩先を行っていることは明らかです。 NVIDIA は、2027 年までに AI 主導の販売を通じて 3,000 億ドルという巨額の収益を生み出す計画を立てているため、顧客への AI GPU の安定供給を確保することが顧客にとっての主要な目標です。

NVIDIA は現在圧倒的な地位を占めており、まだその王座を譲るつもりはないようです。 Team Green がハードウェア部門とともに CUDA プラットフォームで行っている進歩は、市場の状況に革命をもたらしており、将来がどうなるかを見るのは興味深いでしょう。

ニュースソース: Chosun Biz

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です