Geminiの開発にも使われているGoogleの第7世代AIチップ「Ironwood」が一般提供開始へ – GIGAZINE


ハードウェア


Googleが第7世代TPU「Ironwood」の一般提供を数週間以内に開始することを発表しました。IronwoodはAI処理に特化したチップで、高速な学習および推論を低コストで実現できます。

Ironwood TPUs and new Axion-based VMs for your AI workloads | Google Cloud Blog
https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads?hl=en


TPUはGoogleが独自開発しているAI処理に特化したプロセッサで、GeminiやVeoといったGoogle製AIの開発および運用に活用されているほか、Googleのクラウドサービスを通じて世界中のユーザーがTPUを利用できるようになっています。

2025年4月に発表されたIronwoodは1チップ当たり192GBのメモリを搭載しており、2024年12月に一般提供が始まったTrillium(TPU v6e )と比べて1チップ当たりの性能が4倍以上に向上しています。

Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上 – GIGAZINE


Ironwoodは一般提供に先駆けて複数の企業に先行提供されています。例えばClaudeシリーズを開発するAI企業のAnthropicはIronwoodを含む100万台以上のTPUを利用する契約を締結しています。

GoogleとAnthropicがクラウドパートナーシップを正式発表、100万台以上のTPUの利用拡大でコンピューティング能力増大 – GIGAZINE


Ironwoodはチップ同士を9.6Tbpsという速さで相互通信させることが可能で、最大9216個のチップでネットワークを形成することができます。以下の写真は9216個のIronwoodを搭載したスーパーポッドの一部を撮影したものです。


また、GoogleはArmベースのCPU「Axion」を用いた仮想マシン「N4A」とベアメタルサーバー「C4A metal」も発表しています。それぞれの詳細は以下のリンク先で確認できます。

Axion-based N4A VMs now in preview | Google Cloud Blog
https://cloud.google.com/blog/products/compute/axion-based-n4a-vms-now-in-preview?hl=en

New Axion C4A metal offers bare metal performance on Arm | Google Cloud Blog
https://cloud.google.com/blog/products/compute/new-axion-c4a-metal-offers-bare-metal-performance-on-arm?hl=en

この記事のタイトルとURLをコピーする




ソース元はコチラ

この記事は役に立ちましたか?

もし参考になりましたら、下記のボタンで教えてください。

関連記事