NVIDIA Blackwell B100 GPU、2024 年に Hopper H200 GPU のパフォーマンスを 2 倍以上に向上

NVIDIA Blackwell B100 GPU、2024 年に Hopper H200 GPU のパフォーマンスを 2 倍以上に向上

NVIDIA は、2024 年に Hopper H200 のパフォーマンスを 2 倍以上にする次世代 Blackwell B100 GPU の最初のパフォーマンス ティーザーを発表しました。

NVIDIA Blackwell B100 AI GPU は、2024 年に Hopper H200 GPU と比較して 2 倍以上のパフォーマンスを提供

SC23 の特別講演で、NVIDIA は、Blackwell というコード名で呼ばれる次世代 GPU のパフォーマンスを予告しました。この次世代 GPU は、2024 年のデビュー時には Hopper GPU の 2 倍以上の AI パフォーマンスを提供します。使用された GPU は、後継となる次世代 B100 でした。 Hopper H200 は、GPT-3 175B 推論パフォーマンス ベンチマークを破っていることがわかり、その巨大な AI パフォーマンスの可能性を示しています。

過去 2 年間、NVIDIA は Hopper H100 および Ampere A100 GPU を利用して世界中の AI および HPC 顧客のニーズに応え、さまざまなパートナーと協力してきましたが、Blackwell の登場により 2024 年にそのすべてが変わろうとしています。NVIDIA は、AI ブームのおかげでデータ センターと会社全体の収益が大幅に増加しました。グリーン チームが 2025 年までに 2 つの新しい GPU ファミリを発売することを目指しているため、その列車は全力で進んでいるように見えます。

画像出典: NVIDIA

NVIDIA の新しい AI/HPC GPU ファミリの最初の製品は、David Harold Blackwell (1919-2010) にちなんで名付けられた Blackwell になります。GPU は GH200 Hopper シリーズの後継となり、B100 チップを使用します。同社は、GB200NVL (NVLINK)、標準の GB200、ビジュアル コンピューティング アクセラレーション用の B40 など、さまざまな製品を提供する予定です。次世代ラインナップは次回の GTC (2024 年) で発表され、その後 2024 年後半に発売される予定です。

現在の噂によると、NVIDIA は Blackwell GPU の製造に TSMC 3nm プロセス ノードを利用し、最初の顧客には 2024 年末 (第 4 四半期) までにチップが納入される予定です。また、この GPU は、チップレット設計を利用する最初の HPC/AI アクセラレータになると予想されており、 AMD の Instinct MI300 アクセラレータと競合することになります。Instinct MI300 アクセラレータは、レッドチームが宣伝しているように、AI 分野でも大きな話題になるでしょう。

NVIDIA B100

公開されたもう 1 つのチップは GX200 で、これは Blackwell の後継であり、2025 年に発売が予定されています。現在、NVIDIA は AI 製品と HPC 製品の間で 2 年間のペースで取り組んでいます。 2025 年までにチップが発表され、実際のユニットは 2026 年までに出荷開始される予定です。

ラインナップは X100 GPU に基づいており、GX200 製品ラインナップとエンタープライズ顧客向けの別個の X40 ラインナップが含まれます。NVIDIA は自社の GPU に著名な科学者の名前を付けることで知られており、すでに Jetson シリーズに Xavier コードネームを使用しているため、X100 シリーズには別の科学者の名前が付けられることが予想されます。それ以外に、X100 GPU についてわかっていることはほとんどありませんが、NVIDIA が以前のロードマップで使用している Hopper-Next コードネームよりもはるかに優れています。

NVIDIA はまた、新しい Bluefield および Spectrum 製品を使用して Quantum および Spectrum-X の大幅な「倍増」アップグレードを提供し、2024 年までに最大 800 Gb/s の転送速度、2025 年までに最大 1600 Gb/s の転送速度を提供する予定です。これらの新しいネットワーキングまた、相互接続インターフェイスは、HPC / AI セグメントが必要なパフォーマンスを達成するのに大きく役立ちます。

NVIDIA データセンター / AI GPU ロードマップ

GPU コード名 バツ ブラックウェル ホッパー アンペア 時間 パスカル
GPU ファミリ GX200 GB200 GH200/GH100 GA100 GV100 GP100
GPU ウィーユー X100 B100 H100 A100 V100 P100
メモリ HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
打ち上げ 2025年 2024年 2022年 2020年 2018年 2016年

https://www.youtube.com/watch?v=6g0v3tMK2LU?start=1092

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です