NVIDIA Blackwell B100 GPU が今年登場し、2025 年の AI データセンター向けに B200 がアップグレードされるとデルが認める

NVIDIA Blackwell B100 GPU が今年登場し、2025 年の AI データセンター向けに B200 がアップグレードされるとデルが認める

デルが明らかにしたように、NVIDIA の Blackwell AI GPU ラインナップには、2024 年の B100 と 2025 年の B200 という 2 つの主要なアクセラレータが含まれる予定です。

デル、NVIDIA の次世代 Blackwell AI GPU アクセラレータ、2024 年に B100、続いて 2025 年に B200 の開発に着手

最近の決算発表で、デルは、NVIDIA の次世代 Blackwell ラインナップには B100 AI アクセラレータが搭載されているだけでなく、アップグレードされたバージョンも後で提供される予定であるという事実を明らかにしました。様子を見ると、NVIDIA は、NVIDIA の最新の AI とコンピューティング対応ハードウェアを使用してサーバーとデータ センターを運用するデルなどの最大のパートナーに、すでにこの情報を開示しているようです。

画像出典: NVIDIA

NVIDIA の Blackwell GPU は今年発売に向けて準備されており、数週間後に迫った今月の GTC 2024 で正式にデビューする予定であることがわかっています。現在のロードマップでは、NVIDIA B100、GB200、GB200NVL が示されており、B100 は GPU 自体のコードネーム、GB200 はスーパーチップ プラットフォーム、GB200NVL はスーパーコンピューティング用の相互接続プラットフォームです。

現在、NVIDIA の Blackwell GPU はモノリシック設計を採用している可能性があるとの報告がありますが、まだ具体的なことは明らかになっていません。わかっていることは、Hopper H200 GPU と同様に、第 1 世代の Blackwell B100 は HBM3e メモリ テクノロジを活用するということです。したがって、アップグレードされた B200 バリアントでは、さらに高速なバージョンの HBM メモリが使用される可能性があり、さらにメモリ容量が増加し、仕様がアップグレードされ、機能が強化される可能性があります。 Samsung は、 Blackwell GPU の主要なメモリ プロバイダーであると言われています。

明らかに、H200 で何が起こっているのか、そしてそのパフォーマンスが向上していることに私たちが興奮するような変化への視線は変わります。私たちはB100B200で何が起こるかに興奮しており、そこにエンジニアリングの信頼性を区別する別の機会があると考えています。熱面での特性評価では、GPU あたり 1,000 ワットのエネルギー密度に達するために直接液体冷却は必要ありません。

それは来年のB200で実現します。当社のエンジニアリングと、いかに迅速に行動できるか、また流体化学や性能、相互接続など、液冷を大規模に実行するための専門知識をもたらす業界リーダーとしての取り組みを実際に紹介する機会です。仕事、私たちが行っているテレメトリ、私たちが行っている電源管理の作業、これにより、市場に存在するであろうこの信じられないほどの計算能力、強度、機能を活用するために、それを大規模に市場に投入する準備が本当に整います。 。

Robert L. Williams – Dell Technologies Inc. – IR 担当上級副社長

画像出典: NVIDIA

興味深いことに、デルの上級副社長は、NVIDIA Blackwell B100 や B200 などの次世代 GPU の電力密度が 1000W になる予定であることも指摘しています。これは膨大な数ですが、世界最速の AI アクセラレータの一部からは予想外のことではありませんでした。 。 NVIDIA Hopper H200 と AMD Instinct MI300X はすでにピーク電力で最大 800 W を消費する可能性があるため、Blackwell がもたらすと予想されるパフォーマンスの向上を考慮すると、効率の向上を考慮すると 200 W の電力増加はかなり名目なものになるでしょう。

Gigabyte のロードマップで少し前に指摘したように、CPU と GPU の両方に対する電力要件は将来的に増加し続けるでしょう。これらを克服するために、両社は高度なプロセスおよびパッケージング技術を活用して、より高い電力効率を確保しながらチップ開発コストを最適に保つことを保証します。

NVIDIA データセンター / AI GPU ロードマップ

GPU コード名 バツ ルービン ブラックウェル ホッパー アンペア 時間 パスカル
GPU ファミリ GX200 GR100 GB200 GH200/GH100 GA100 GV100 GP100
GPU ウィーユー X100 R100 B100/B200 H100/H200 A100 V100 P100
メモリ HBM4e? HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
打ち上げ 202X 2025年 2024年 2022~2024年 2020-2022 2018年 2016年

ニュースソース:バロンズ

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です