NVIDIA、米国の規制を回避するために中国市場向けにさらに多くの Hopper AI GPU を準備
NVIDIA は、米国の規制を回避するホッパー GPU をさらに製造していると伝えられているため、中国市場における巨大な AI 市場の可能性を諦めていないようです。
NVIDIA H20、L20、L2 は中国市場向けの新しい AI GPU です
Semianalysis の Dylan Patel 氏による最新レポートによると、NVIDIA は H20 SXM、PCIe L20、PCIe L2 を含む少なくとも 3 つの新しい AI GPU を中国市場向けに発売する計画があるようです。これらのチップはすべて Hopper GPU アーキテクチャに基づいており、理論上の最大パフォーマンスは 296 TFLOP です。
これらのチップの GPU 構成の正確な仕様はまだ不明ですが、Hopper H20 SMX は、最大 4.0 Tb/s で動作する 96 GB のメモリ容量、296 TFLOP の計算能力を備え、パフォーマンス密度 2.9 の GH100 ダイを使用しています。 TFLOPs/ダイ対 H100 の 19.4。リストされた表によると、H100 SXM は H20 SXM より 6.68 倍高速ですが、これらは FP16 Tensor コア FLOP であり、INT8 または FP8 FLOP ではありません。
NVIDIA L20 には 48 GB のメモリとピーク 239 TFLOP のコンピューティング パフォーマンスが搭載されており、L2 は 24 GB のメモリとピーク 193 TFLOP のコンピューティング パフォーマンスで構成されています。GPU は PCIe フォーム ファクターで提供され、オフィス ベースのワークステーションおよびサーバーにとって実行可能なソリューションになります。これらは、中国の顧客が以前にH800 や A800の形で入手していたものよりもはるかに簡素化された構成ですが、AI および HPC 用の NVIDIA ソフトウェア スタックは、これらの顧客の一部にとっては、放棄するにはあまりにも価値があるようです。これらの最新の Hopper アーキテクチャにアクセスするために、スペックが低下しても喜んで受け入れるでしょう。
また、従来のコンピューティングの観点からは削減されていますが、レポートでは、LLM 推論では、H20 SXM は来年の H200 と類似点を共有しているため、実際には H100 よりも高速になると述べています。これは、GPU の少なくとも一部がチップの残りの部分と比べてそれほど削減されていないことを示唆しています。
NVIDIA はまだこれらのチップを正式に発表していませんが、本格的な AI 製品の発表ではなく、秘密にしてパートナーに計画について黙って更新する可能性があります。最近米国政府が中国に対して課した制限を受けて、中国はAIの代替手段を模索するようになった(ここにリストされている)。
NVIDIA は、これらの競合企業の一部が持つ可能性を認識しており、米国の規制に準拠しながら、中国の顧客ベースを可能な限りサポートするよう努める予定です。同社はまた、世界中で AI に対する膨大な需要を抱えており、最近 50 億ドル相当の注文がキャンセルされたにもかかわらず、グリーンチームは供給を別の場所に再配分するだけで、以前は入手まで 1 年以上待たなければならなかった顧客が手に入るようにする予定です。 GPU のユーザーは、NVIDIA の AI ゴールドを早期に入手できるようになりました。
コメントを残す