At Google Cloud Next ’25, Google revealed Ironwood. This is their seventh-generation Tensor Processing Unit (TPU). It’s the first TPU made just for AI inference, not training. This shows a big change in AI infrastructure. It meets the rising need for models that process data in real time and create insights ahead of time. Google calls this the “Era of Inference.”
アイアンウッドは、次世代のジェネレーティブAIの高い要求に応えるために設計されています。計算と通信の両方のニーズを効果的に満たします。最大9,216個の液冷チップによる大規模な展開をサポートします。これらのチップは、高速チップ間相互接続(ICI)ネットワークを使用して接続されます。システムは10メガワット近くまで拡張可能です。このアーキテクチャは グーグル・クラウドのAIハイパーコンピューター・フレームワーク。最適化されたハードウェアとソフトウェアを融合。この組み合わせにより、複雑なAIタスクのパフォーマンスと効率が向上します。
こちらもお読みください: キオクシア、AIOコア、京セラがPCIe 5.0光SSDを開発
この発表は、業界における大きなトレンドを浮き彫りにしています。AIシステムはより自律的になり、洞察力によって駆動され、継続的な推論ができるようになっています。Ironwoodはスケーラブルでエネルギー効率に優れた設計になっています。これは、クラウドにおける高度なAIアプリケーションのサポートでグーグルをリードするのに役立ちます。リアルタイムで大量の推論タスクを処理するインフラへのニーズの高まりに対応します。
