NVIDIA H100 GPU を搭載した A3 VM が Google Cloud でプライベート プレビュー中になりました

NVIDIA H100 GPU を搭載した A3 VM が Google Cloud でプライベート プレビュー中になりました

Googleは AI に焦点を当てた I/O イベントで、Google Cloud の顧客がプライベート プレビューで NVIDIA H100 GPU を搭載した A3 仮想マシンの使用を開始できるようになると発表しました。検索大手である同社は、新しい A3VM は高度な機械学習モデルを開発している顧客にとって「前進」であると述べた。

A3 GPU 仮想マシン (VM) の主な機能は次のとおりです。

  • NVIDIA の Hopper アーキテクチャを利用した 8 つの H100 GPU により、3 倍のコンピューティング スループットを実現
  • NVIDIA NVSwitch および NVLink 4.0 を介した A3 の 8 GPU 間のバイセクション帯域幅 3.6 TB/秒
  • 次世代第 4 世代インテル Xeon スケーラブル プロセッサー
  • 4800 MHz DDR5 DIMM 経由の 2TB のホスト メモリ
  • 当社のハードウェア対応 IPU、特殊なサーバー間 GPU 通信スタック、および NCCL 最適化によって強化された 10 倍のネットワーク帯域幅

これらの仮想マシンを使用すると、複雑な ML モデルをトレーニングする必要がある企業は、はるかに迅速に作業を行うことができます。これらは、今日の生成 AIを担う要求の厳しい AI モデルを念頭に置いて構築されています。

「次世代 NVIDIA H100 GPU を搭載した Google Cloud の A3 VM は、生成 AI アプリケーションのトレーニングと提供を加速します」と NVIDIA のハイパースケールおよびハイ パフォーマンス コンピューティング担当バイスプレジデントの Ian Buck 氏は述べています。「Google Cloud が最近リリースした G2 インスタンスに続き、Google Cloud との連携を継続し、専用の AI インフラストラクチャによる世界中の企業の変革を支援できることを誇りに思います。」

Google によると、同社の新しい A3 スーパーコンピュータは、最大 26 エクサフロップスの AI パフォーマンスを提供でき、CPU ホストをバイパスできる GPU 間のデータ転送を備えたカスタム設計の 200 Gbps IPU を使用する最初の GPU インスタンスです。これにより、ネットワーク帯域幅が 10 倍増加し、処理が高速化されます。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です