Microsoft、AIとコンピューティング分野でNVIDIAとAMDに対抗するため、自社開発のMaia 100とCobalt 100チップを発表

Microsoft、AIとコンピューティング分野でNVIDIAとAMDに対抗するため、自社開発のMaia 100とCobalt 100チップを発表

Microsoft はついに、最先端の計算パフォーマンスの達成を目的とした「自社製」AI チップの最初のバッチ、Azure Maia AI Accelerator と Azure Cobalt ARM CPU を発表しました。

Microsoft が初のカスタム AI とコンピューティング シリコンを展示: Azure Maia 100 と Azure Cobalt 100 を紹介

ここで、実際に Microsoft が社内 AI ソリューションに移行するきっかけとなったいくつかの要因を見てみましょう。1 つ目は、競合他社の中で目立つことです。現在、「AI 競争」に関しては、マイクロソフトが主流のアプリケーションやエンタープライズ アプリケーションを含むすべてのポートフォリオに生成 AI 機能をうまく統合しているため、Microsoft が大きくリードしています。

2 番目の理由は、現在市場全体が特定のサプライヤーに限定されているため、完全な「サプライ チェーン」への依存を減らすことであり、注目すべき言及としては、膨大な受注残に直面しているNVIDIA と TSMC があります。

Microsoft Azure Maia 100 Accelerator は、純粋に AI ワークロード専用に設計されています。(画像出典: Microsoft)

今日のMicrosoft Igniteイベントで同社は声明を発表し、自らの手に統治を委ねる計画であることを明らかにした。Microsoft は、自社製 AI コンポーネントの導入は、クライアントやパートナーに一流のインフラストラクチャを提供する上での「最後のパズルのピース」であり、業界のサプライヤーへの依存を減らすための一歩であると考えています。

Microsoft は AI イノベーションをサポートするインフラストラクチャを構築しており、お客様のニーズを満たすためにデータセンターのあらゆる側面を再考しています。

当社が運営する規模では、パフォーマンスを最大化し、サプライチェーンを多様化し、お客様にインフラストラクチャの選択肢を提供するために、インフラストラクチャ スタックのすべての層を最適化および統合することが重要です。

– マイクロソフトのクラウド + AI グループ担当エグゼクティブ バイスプレジデント、スコット ガスリー氏

Microsoft は長い間、社内ソリューションを開発していると噂されていたため、Microsoft のカスタム AI 製品の導入は驚くべきことではありません。ここで Microsoft が持つ利点は、自社のクラウドと AI ワークロードに応じて AI チップを「最適化」できることです。Microsoft は、すでに構築されているソフトウェア リソースの能力を活用することで、ハードウェアを組み合わせて、能力、パフォーマンス、持続可能性、コストの面で将来の会社の普及に役立つ最終製品を作成することを計画しています。

Microsoft Azure Cobalt 100 は、コンピューティングおよび汎用セグメントを対象とした ARM ベースの SOC です。(画像出典: Microsoft)

さらに興味深い点に移りますが、残念ながらマイクロソフトは自社の AI チップのいずれについても仕様や統計を明らかにしていないことを明らかにしていますが、同社は同社の Maia AI アクセラレータがすでに OpenAI に採用されていると明らかにしました。このアクセラレータは特に Azure ハードウェア スタックをターゲットにしており、チップ設計と AI インフラストラクチャの世代ごとの改善により、Microsoft は自社製品で「大きな利益」を生み出すことができると考えています。

技術的な部分に詳しく説明すると、Microsoft Azure Maia 100 は TSMC の 5nm ノード上に構築された ASIC であり、x86 ホストを使用します。このチップは、最大 4 つのチップを提供するカスタム水冷ラックに取り付けられます。このチップは標準の INT8 および INT4 データ形式をサポートし、組み込みイーサネット インターフェイスを利用します。

Microsoft が初めて Maia チップの設計を共有したとき、私たちは興奮し、協力してそれを改良し、私たちのモデルでテストしてきました。Azure のエンドツーエンド AI アーキテクチャは、Maia によってシリコンに至るまで最適化され、より有能なモデルをトレーニングし、顧客にとってそれらのモデルをより安価に提供する道を開きます。

-サム・アルトマン氏、OpenAI CEO

Microsoft Azure Cobalt 100 CPU は ARM アーキテクチャに基づいて構築されており、Microsoft は英国の企業が市場で最高の設計を備えており、同社のデータ センターの「ワットあたりのパフォーマンス」を最大限に引き出すことができると考えています。同社は、12 チャネル DDR5 メモリをサポートし、今後発売される ARM サーバー チップと比較してコアあたりのパフォーマンスが最大 40% 向上する、合計 128 個の Neoverse N2 コアの概要を発表しました。

Azure Maia および Cobalt チップは、カスタム水冷エコシステムを基盤としています。画像出典: Microsoft

Microsoft 独自の AI チップは業界にどのような影響を与えるでしょうか? そうですね、競争力が向上することは確かですが、結論を裏付けるようなパフォーマンス統計がないため、今すぐ結論付けることはできません。Microsoft が明らかにしたのは、Azure AI および Azure CPU プラットフォームは、カスタム調整されたドライバーとカスタムの配信期間を含む完全なカスタム アプローチによってサポートされるということです。

マイクロソフト

しかし、自社製製品への移行というアプローチは長い間「慣行化」されており、Microsoft は、業界ではこれとは異なるものに対するニーズがあると考えています。Azure Maia 100 AI アクセラレータと Azure Cobalt 100 CPU スタックが業界の製品の中でどのように位置付けられるかを見るのは興味深いでしょうが、競合他社は引き続き注意する必要があります。Microsoft は、新しい NVIDIA Hopper H100 および H200 インスタンスをすでに発表しているため、引き続きサードパーティ シリコンを使用した Azure クラウド サービスを提供し、 AMD の次期 Instinct MI300X および第 4 世代 EPYC プラットフォームを活用してVM を強化する予定です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です