NVIDIA は、次期 Hopper H200 および HBM3E メモリの購入に多額の費用を費やしています。 Blackwell B100 AI GPU
NVIDIA は、次世代 Hopper H200 および HBM3E メモリに十分な在庫を確保しようとして、HBM3E メモリに多額の費用を費やしました。 Blackwell B100 AI GPU。
NVIDIA、次世代 Hopper H200 と H200 で 2024 年の AI 競争を促進Blackwell B100 GPU、HBM3Eメモリ供給を確保するために数十億ドル相当を発注
このアプローチでは、他の企業のアクセスが制限され、リソースを取得できなくなるか、リソースへのアクセスが制限されます。
韓国メディアによると、NVIDIA は HBM3E メモリに対して約 7,000 億ウォンから 1 兆ウォンを前払いしているとのことで、数字にはばらつきがありますが、業界からの膨大な需要を考慮すると、実際の金額は 1 兆ウォンに近いと予想されます。これは前払いだけで約 7 億 7,500 万米ドルに相当し、実際の金額は 10 億米ドルを超える可能性があります。
AI 業界は急速に進化しており、インテルやインテルなどの企業が参入しています。 AMDはこの分野でNVIDIAを追い詰めるために開発を強化しているため、チームグリーンは優位性を維持するために「先制」措置を講じる必要がある
HBM3E と言えば、現在、NVIDIA は次世代 Blackwell AI GPU でのHBM3e のデビューを計画しており、発売が噂されています。 2024 年第 2 四半期までに、チップレット設計の採用により、ワットあたりのパフォーマンスが決定的に向上します。さらに、NVIDIA の Hopper H200 GPU にも世界最速の HBM3E メモリが搭載される予定であるため、このソリューションは NVIDIA にとって非常に重要な意味を持ちます。 AI とその分野での成功の条件は次のとおりです。 HPC 市場
NVIDIA は、データセンター部門からの収益創出という点で大きな期待を寄せており、他社よりも一歩先を行っていることは明らかです。 NVIDIA は、2027 年までに AI 主導の販売を通じて 3,000 億ドルという巨額の収益を生み出す計画を立てているため、顧客への AI GPU の安定供給を確保することが顧客にとっての主要な目標です。
NVIDIA は現在圧倒的な地位を占めており、まだその王座を譲るつもりはないようです。 Team Green がハードウェア部門とともに CUDA プラットフォームで行っている進歩は、市場の状況に革命をもたらしており、将来がどうなるかを見るのは興味深いでしょう。
ニュースソース: Chosun Biz
コメントを残す