AI半導体市場において、長らく事実上の独占体制を築き、“王”として君臨してきたNVIDIA。しかし、その絶対的な支配構造が少しずつ揺らいでいる。
SemiAnalysisによる最新の詳細な分析レポートによると、Googleが極秘裏に開発を進めてきた第7世代AIチップ「TPUv7(コードネーム:Ironwood)」が、物理的に市場へ出回る前段階においてさえ、既に巨額の経済的インパクトを与えていることが判明した。驚くべきことに、OpenAIはGoogleのTPUという選択肢を「チラつかせる」だけで、NVIDIAからの調達コストを約30%も圧縮することに成功したというのだ。
本稿では、SemiAnalysisなどの情報を基に、Googleが「内部利用」から「外販」へと舵を切った戦略的転換、TPUv7の恐るべき技術的優位性、そしてこれらがAI業界全体の勢力図(パワーバランス)をどう塗り替えようとしているのかを見ていきたい。
NVIDIA税を破壊する「TPUの存在」:OpenAIが実現した30%のディスカウント
AI業界において、計算リソースの確保はそのまま企業の存亡に関わる最重要課題である。これまで、最高性能のAIモデルをトレーニングするためには、NVIDIAのGPU(H100やBlackwellなど)を言い値で購入する以外の選択肢は事実上存在しなかった。これを業界では「NVIDIA税」と揶揄することさえある。
しかし、SemiAnalysisのレポートによると、OpenAIはこの状況を打破した。彼らはNVIDIAとの交渉において、GoogleのTPUやその他の代替手段への切り替えを「信頼性のある脅し」として提示することで、NVIDIA製GPUフリート全体に対して約30%もの大幅なディスカウントを勝ち取ったとされる。
これは単なる値引きの話ではない。重要なのは、「GoogleのTPUv7が、NVIDIAのBlackwell世代と真っ向から勝負できる性能と、圧倒的なコストパフォーマンスを持っている」という事実を、競合であるOpenAIが認め、それをNVIDIAも無視できなかったという点だ。Google TPUはもはや「安かろう悪かろう」の代替品ではなく、NVIDIAの独占利益を削り取るだけの強力な対抗馬として機能し始めていると言えるのではないだろうか。
「買えば買うほど安くなる」の皮肉な現実
NVIDIAのJensen Huang CEOは「The more you buy, the more you save(買えば買うほど得をする)」というキャッチフレーズで知られるが、現在のAI業界では別の力学が働き始めている。アナリストらが指摘するように、現在の状況は「(TPUを)買えば買うほど、(NVIDIAへの設備投資を)節約できる」という皮肉な現実へとシフトしているのだ。
Anthropic、Meta、xAI、そしてOpenAIといったフロンティアモデルを開発する企業にとって、Google TPUの存在は、実際に導入するか否かに関わらず、対NVIDIA交渉における最強のカードとなっている。
Googleが「半導体売り」になる日
Googleはこれまで、自社開発したTPU(Tensor Processing Unit)を、検索エンジンやYouTube、そして自社のAIモデル(Geminiなど)のために「内部利用」することに主眼を置いてきた。外部の顧客がTPUを使うには、Google Cloud Platform(GCP)を通じてレンタルするしかなかった。
しかし、TPUv7「Ironwood」の登場と共に、Googleはその伝統的な戦略を捨て去り、「マーチャントシリコン(外販用半導体)」としての展開を本格化させている。
Anthropicとの1GW級メガディール
この戦略転換を象徴するのが、AIスタートアップの雄、Anthropicとの巨大な契約だ。報道によると、AnthropicはGoogleから100万基規模のTPUを確保する契約を結んだとされる。その内訳は以下の通りだ。
- 直接購入(約40万基): AnthropicはTPUv7サーバーの完成品(ラック)を直接購入し、自社が契約するデータセンターに設置する。これはGoogleが「ハードウェアベンダー」として振る舞うことを意味する。
- クラウドレンタル(約60万基): 残りは従来通りGCP経由での利用となる。
このインフラを稼働させるために必要な電力は1ギガワット(GW)を超えるとされ、これは原子力発電所1基分に相当する途方もない規模だ。Anthropicの最新モデル「Claude 4.5 Opus」やGoogleの「Gemini 3」は、既にこれらのTPUインフラ上でトレーニングされており、その性能が世界最高峰であることは実証済みである。
「ネオクラウド」とクリプトマイナーを巻き込むエコシステム
Googleはこの大量のシリコンを市場に展開するために、金融面でもクリエイティブな戦略をとっている。Fluidstackのような「ネオクラウド(新興クラウド事業者)」や、TeraWulfのような暗号資産(クリプト)マイニング事業者と提携し、彼らのデータセンターにTPUを配備しているのだ。
ここでGoogleは「クレジット・バックストップ(信用補完)」という役割を担っている。もしネオクラウド事業者がデータセンターの賃料を払えなくなった場合、Googleが支払いを保証するという契約だ。これにより、資金調達のハードルを下げ、本来AI用ではないクリプトマイニング施設を急速にAIデータセンターへと転換させることに成功している。このスピード感こそが、NVIDIAの供給不足に苦しむ市場の隙間を突く鍵となっている。
TPUv7「Ironwood」技術解剖:なぜNvidiaより安いのか?
「安さ」には理由がある。Google TPUv7がNVIDIAの最新鋭システム(GB200など)に対して圧倒的なTCO(総所有コスト)の優位性を誇る背景には、Google独自の設計思想とシステムアーキテクチャがある。
44%低いTCOの衝撃
SemiAnalysisの試算によれば、GoogleにとってのTPUv7チップ単体のTCOは、同等のNVIDIA GB200システムと比較して約44%も低い。外部顧客であるAnthropicへの販売価格(Googleのマージンを含む)でさえ、NVIDIAシステムより実効計算性能あたりのコストで30〜50%安価になると推定されている。
システムこそが正義:ICIとOCSによる超並列化
TPUの真骨頂は、個々のチップ性能(マイクロアーキテクチャ)よりも、それらを繋ぐ「システム全体」にある。
- ICI (Inter-Chip Interconnect): NVIDIAのNVLinkに相当する技術だが、Googleはこれを遥かに大規模に展開している。TPUv7では、9,216基ものチップを単一のドメイン(ポッド)として接続できる。対するNVIDIAのシステムは、一般的に64〜72基の密結合クラスターが基本単位となることが多い。この圧倒的なスケールは、超巨大なパラメーターを持つLLMのトレーニングにおいて、通信ボトルネックを劇的に解消する。
- 3Dトーラス・トポロジー: チップ同士は、隣接するチップと直接ケーブルや基板で接続され、全体として3次元のドーナツ状(トーラス)のネットワークを形成する。
- OCS (Optical Circuit Switch): Googleの秘密兵器とも言えるのが、この光回線スイッチだ。従来の電気スイッチと異なり、光信号を光のまま経路切り替えを行う。これにより、ネットワークの遅延を極小化し、消費電力を抑え、さらに故障した箇所を物理的にバイパスしてネットワークを再構成(Reconfigurability)することを可能にしている。
「カタログスペック」より「実効性能」
NVIDIAのGPUはカタログ上の理論ピーク性能(FLOPS)が非常に高い。しかし、実際のAIワークロードでその数値を出し続けることは難しい(利用効率の問題)。一方、GoogleのTPUは、カタログスペックではNVIDIAに見劣りする場合があるものの、特定のAIワークロードに特化して設計されているため、実効利用率(MFU: Model FLOP Utilization)が極めて高い。
結果として、「理論値はNVIDIAが上だが、実際にAIを動かした時のコストパフォーマンスはGoogleが圧倒する」という現象が起きているのだ。
ソフトウェアの壁を壊す:CUDA要塞への侵攻
長年、Google TPU普及の最大の障壁はソフトウェアだった。NVIDIAには「CUDA」という強力なエコシステムがあり、多くの開発者はこれにロックインされている。Google独自の「JAX」言語は優秀だが、PyTorch中心の開発者にとっては学習コストが高かった。
しかし、Googleはこの「言語の壁」を取り壊しにかかっている。
PyTorchネイティブ対応への本気度
レポートによると、Googleは現在、業界標準フレームワークであるPyTorchのネイティブサポートに巨額の投資を行っている。これまでの「XLA(コンパイラ)」を介した複雑な変換プロセスを排除し、NVIDIA GPUと同じような感覚で、TPU上でPyTorchを動かせる環境を整備しつつある。
オープンエコシステム「vLLM」への参入
さらに、推論ライブラリとして人気に火がついているvLLMへの対応も進めている。これにより、開発者は使い慣れたツールチェーンを捨てることなく、ハードウェアだけをTPUに切り替えることが容易になる。
ただし、SemiAnalysisは、Googleが依然としてコアとなるコンパイラ技術(XLA)の一部をプロプライエタリ(非公開)にしている点を批判している。これを完全オープンソース化すれば、コミュニティによる最適化が加速し、NVIDIAのCUDA城壁を崩す決定打になり得るからだ。
NVIDIAの反撃と「Rubin」の影
Googleが現在、価格と実効性能で優位に立っているとしても、NVIDIAが黙って見ているわけではない。
NVIDIA次世代チップ「Vera Rubin」
NVIDIAは2026年から2027年にかけて、次世代アーキテクチャ「Vera Rubin」を投入する予定だ。HBM4メモリの採用や、さらに広帯域なインターコネクトなど、アグレッシブな設計が予想されており、これが計画通りに高いパフォーマンスを発揮すれば、現在のTPUv7のコスト優位性は一気に蒸発する可能性がある。
Googleの次の一手:TPUv8とサプライチェーンの分散
対するGoogleは、次期モデル「TPUv8」でサプライチェーンの多角化を進めている。長年のパートナーであるBroadcomと共同開発するモデル(コードネーム:Sunfish)に加え、新たにMediaTekと開発するモデル(コードネーム:Zebrafish)の2ラインを計画中だ。
しかし、アナリストはTPUv8の設計が競合(NVIDIA)に比べて「保守的」であると警鐘を鳴らす。TSMCの最先端2nmプロセスやHBM4の採用を見送る可能性があり、もしNVIDIAがRubinで完璧なエグゼキューションを見せれば、Googleは再び性能面で大きく突き放されるリスクがある。
AIインフラ戦争は「総力戦」へ
Google TPUv7 “Ironwood” の登場と外販戦略への転換は、単なる新製品のニュースではない。それは、Nvidiaという一強独裁に対する、世界で唯一、シリコンからデータセンター、冷却、ネットワーク、そして生成AIモデルまでを垂直統合できる巨人Googleによる「総力戦」の布告である。
OpenAIが享受した30%のディスカウントは、この競争がもたらした最初の果実だ。今後、この競争はさらに激化し、AI開発企業にとっては、より安価で高性能な計算資源を手に入れられる黄金時代が到来するかもしれない。
しかし、勝負はまだ終わっていない。Googleがソフトウェアの壁を完全に崩せるか、そしてNVIDIAが次世代チップで再び王座の威厳を見せつけるか。シリコンバレーの地下深くで繰り広げられるこの覇権争いは、今後のAIの進化速度そのものを決定づけることになるだろう。
Sources
元の記事を確認する