フォックスコン、NVIDIA の Blackwell GPU 向けに最大規模の施設を建設
世界有数の電子機器受託製造業者として知られるフォックスコンは、NVIDIA の GB200 チップ専用の大規模な生産施設を建設するという野心的な計画を明らかにした。この発表は、台湾の台北で行われた NVIDIA の年次技術展示会で、フォックスコンの上級副社長ベンジャミン・ティン氏によって行われた。ただし、この新しい施設の所在地に関する具体的な詳細は明らかにされていない。
この取り組みは、AI モデルのトレーニングなど、計算負荷の高いタスク向けに特別に設計された、Nvidia の今後の Blackwell プラットフォームに対する大きな需要と一致しています。
Foxconn は主に Apple との提携で知られていますが、製造の専門知識を他の電子機器、特に GPU の製造にまで広げています。これらのコンポーネントの需要増加は、モデル トレーニング用の強力な計算能力を必要とする多数の AI スタートアップによって推進されています。これらのニーズを満たすために、多くの企業がすでにデータ センターの容量を拡大しています。
AI モデルのトレーニングと展開の後は、さまざまなアプリケーションによって生成されるデータの増加を管理するために、継続的なコンピューティング リソースが不可欠です。これらの要件に対応するために、 Nvidia は Blackwell プラットフォームと GB200 GPU を導入し、 Microsoft などの大手企業が大量の先行予約を行っています。
Nvidia GB200 は、2 つの Blackwell B200 GPU と Grace CPU を統合した強力なスーパーチップです。各 GPU には 192 GB の HBM3e メモリが搭載され、CPU は 512 GB の LPDDR5 メモリにリンクされているため、合計 896 GB の統合メモリ容量になります。これらのコンポーネント間の通信は NVLINK によって促進され、GPU と CPU 間の高速データ転送が可能になります。さらに、GB200 はGB200 NVL72 プラットフォーム内のコンピューター ラックの一部として機能し、単一の NVLINK ドメイン内に 512 個の GPU を収容できるように拡張可能で、広範な AI トレーニングと推論の取り組みのパフォーマンスを大幅に向上させます。
GB200 などの GPU は、高性能コンピューティング (HPC) システムに不可欠なものであり、複雑な計算を効率的に実行し、大規模なデータセットを処理するように細心の注意を払って設計されています。そのアーキテクチャは、相互接続された複数のプロセッサ間での並列処理を促進し、データ量の多いアプリケーションに最適です。
フォックスコンの会長であるYoung Liu氏は、イベントで同社のサプライチェーンがAIの進歩に向けて好位置にいると断言した。同氏は、NvidiaのGB200構成の製造に不可欠な液体冷却や放熱システムなどの重要な技術を備えたフォックスコンの優れた製造能力を強調した。
Foxconn と Nvidia は、台湾最大のスーパーコンピューターの構築に協力しており、その名は鴻海高雄スーパーコンピューティングセンターです。このスーパーコンピューターは、同じ Blackwell アーキテクチャを採用し、64 ラックと 4,608 基の Tensor Core GPU で構成される GB200 NVL72 プラットフォームを組み込んでいます。合計 90 エクサフロップスを超えるコンピューティング性能を達成することが期待されています。
このスーパーコンピューターの建設はすでに台湾の高雄で進行中で、第 1 フェーズは 2025 年半ばまでに稼働し、完全導入は 2026 年を予定しています。
ロイター経由
コメントを残す