Microsoft、AIサービスを強化するための社内プロセッサを発表
ソフトウェア大手は、年次カンファレンス Microsoft Ignite でAI ワークロード用の 2 つのカスタムメイド チップを発表しました。人工知能タスクと生成 AI 用の Microsoft Azure Maia AI Accelerator と、Microsoft Cloud 上の汎用コンピューティング ワークロード用の ARM プロセッサーである Microsoft Azure Cobalt です。
このプロジェクトの背後にある考え方は、人工知能に対する現代の需要を満たすために「シリコンからサービスまですべて」を調整することです。マイクロソフトは、自社チップの作成に加えて、ソフトウェア、サーバー ラック、冷却システムなど、その他すべてが AI ワークロードに最適化されていることを確認しました。
Microsoft は AI イノベーションをサポートするインフラストラクチャを構築しており、お客様のニーズを満たすためにデータセンターのあらゆる側面を再考しています。当社が運営する規模では、パフォーマンスを最大化し、サプライチェーンを多様化し、お客様にインフラストラクチャの選択肢を提供するために、インフラストラクチャ スタックのすべての層を最適化および統合することが重要です。
Microsoft によれば、Azur Maia AI Accelerator は Azure ハードウェア スタック専用に設計されており、「ハードウェアの絶対最大使用率」を実現しています。Azure Cobalt に関しては、最適化されたパフォーマンスを備えたクラウドネイティブ製品向けのエネルギー効率の高い ARM チップです。データセンターにおけるワット当たりの比率。
既存のデータセンター インフラストラクチャに新しいチップを収容するために、Microsoft はサーバー ラックを再設計し (新しいプロセッサには幅の広いボードが必要です)、液体冷却ソリューションを実装しました。同社は、来年初めに AI に特化した新しいプロセッサをデータセンターに展開し、当初は Microsoft Copilot と Azure OpenAI Service を強化する予定です。
マイクロソフトは、人工知能用の専用シリコンを発売することに加えて、顧客により多くの選択肢を提供するために他のメーカーとのパートナーシップを拡大しています。Microsoft は、NVIDIA の H100 Tensor コア GPU を搭載した新しい仮想マシンのプレビューを開始しました。さらに、ソフトウェア巨人は、NVIDIA H200 Tensor Core と AMD の MI300X を採用する予定です。これらの追加により、中距離および高距離のトレーニングと生成 AI のパフォーマンス、信頼性、効率が向上します。
コメントを残す