米Googleは4月9日(現地時間)、ラスベガスで開催の「Cloud Next 2025」で、第7世代となるTPU「Ironwood」を発表した。同社が10年以上にわたり培ってきたAIコンピューティングの専門知識を結集した推論処理に特化した初のTPUだ。
Ironwoodは、高性能でエネルギー効率が高く、思考を必要とする推論AIモデルを大規模に動かすために特別に設計されているという。
これまでの同社のTPUは、主にAIモデルの学習と推論の両方のワークロードをサポートしてきたが、Ironwoodは推論処理に最適化された初のTPU。最大で4614TFLOPSの計算能力を提供する。特にFP8のピークFLOPS性能は、初代の外部Cloud TPUであるTPU v2と比較して大幅に向上している。
電力効率は、先代の「Trillium」と比較して2倍、2018年の初代TPUと比較して約30倍に向上した。
|
|
各チップにTrilliumの6倍の、192GBの高帯域幅メモリを搭載。HBMの帯域幅はTrilliumの4.5倍になる7.2TBps/チップに達する。これにより、大規模なモデルやデータセットの処理で、データ転送の必要性を減らし、パフォーマンスを向上させるとしている。
Ironwoodは、最大9216個のチップで構成されるポッドにスケールアップ可能で、その総計算能力は42.5EFLOPSに達する。これは、世界最大のスーパーコンピュータである「El Capitan」の24倍以上の計算能力に相当する。
Ironwoodは、今年後半にGoogle Cloudの顧客向けに提供開始される予定だ。256チップ構成と9216チップ構成の2つのサイズで提供される見込み。
Googleは、Ironwoodを「Google Cloud AI Hypercomputer」に統合する計画も明らかにした。これにより、Ironwoodの計算能力を、Google Cloudのインフラ全体で活用できるようになる。また、Google DeepMindが開発した次世代AIアーキテクチャ「Pathways」を利用することで、数万ものIronwoodチップを組み合わせて、生成AIコンピューティングを迅速に進めることができるという。
GoogleはIronwoodの登場を、従来の「応答型」AIモデルから、洞察や解釈を「プロアクティブ」に生成するAIエージェントが協調して洞察や回答を提供する「推論の時代」への重要な転換点となるとしている。
|
|
|
|
|
|
Copyright(C) 2025 ITmedia Inc. All rights reserved. 記事・写真の無断転載を禁じます。
掲載情報の著作権は提供元企業に帰属します。