Microsoft Azure が GB200 を搭載した NVIDIA の Blackwell システムを搭載した初のハイパースケーラーに
3月にNVIDIAは革新的なBlackwellプラットフォームを発表しました。このプラットフォームは、大規模言語モデルのトレーニングにおいて、従来のモデルと比較してコストとエネルギー消費を最大25倍も削減するという驚異的な成果を誇ります。Amazon Web Services、Dell Technologies、Google、Meta、Microsoft、OpenAI、Oracle、Tesla、xAIなど、大手クラウドサービスプロバイダーや著名なAI企業の間では、Blackwellのリリースと同時に業務に統合することが期待されており、大きな期待が寄せられています。
しかし、Blackwell プラットフォームの発売は、設計上の問題により最大 3 か月遅れています。最近、Microsoft は X で、NVIDIA の GB200 Blackwell チップの受け取りを開始しており、現在、これらの新しいチップを最大限に活用できるようにサーバーを最適化していると発表しました。この最適化では、NVIDIA の高度な Infiniband ネットワーキング テクノロジと革新的な閉ループ液体冷却システムが活用されています。
Microsoft Azure は、GB200 駆動の AI サーバーを備えた@nvidiaの Blackwell アーキテクチャを導入した最初のクラウド プラットフォームです。Infiniband ネットワークと最先端のクローズド ループ液体冷却を活用して、あらゆるレベルでパフォーマンスを強化し、世界をリードする AI モデルをサポートします。詳細については、MS Ignite をご覧ください。pic.twitter.com/ K1dKbwS2Ew
— Microsoft Azure (@Azure) 2024年10月8日
さらに、マイクロソフトの CEO サティア ナデラ氏も GB200 の展開に関する最新情報を共有しました。
NVIDIA との永続的なコラボレーションと継続的なイノベーションにより、業界のペースが決まり、最も複雑な AI ワークロードが強化されます。https ://t.co/qaEoSv8dm5
— サティア ナデラ (@satyanadella) 2024 年 10 月 8 日
さらに、NVIDIA は最近、DGX B200 の初期エンジニアリング バージョンの 1 つを OpenAI チームにも提供しました。
私たちのオフィスに届いたものをご覧ください。DGX B200 の最初のエンジニアリング ユニットの 1 つを送ってくださった@nvidiaに感謝します。pic.twitter.com /vy8bWUEwUi
— OpenAI (@OpenAI) 2024 年 10 月 8 日
NVIDIA の Blackwell プラットフォームにはさまざまな潜在的顧客が大きな関心を示しているため、Microsoft と OpenAI が最初にこれらのチップを受け取る企業のひとつであることは理にかなっています。独自の AI トレーニング インフラストラクチャ (Google は Tensor Processing Unit、AWS はカスタム チップの開発) を持つ Google や AWS などの他の大手クラウド プロバイダーとは異なり、Microsoft と OpenAI は NVIDIA のテクノロジに完全に依存しており、NVIDIA の最大の顧客として位置付けられています。
NVIDIA の GB200 の導入に関する詳細は、11 月に予定されている Microsoft の Ignite カンファレンスで発表される予定です。
コメントを残す