CPUが「ボトルネック」に——AIが変えるチップの主役交代
エージェント型AIの台頭により、長年脇役だったCPUが突如主役に。NvidiaのGTC発表を前に、CPU市場は「静かな供給危機」に直面。日本企業への影響とは?
6ヶ月で前例のない需要増——AMDのデータセンター責任者がそう言い切るとき、業界に何かが起きていると考えていいでしょう。その「何か」は、私たちが想像していたよりも静かに、しかし確実に進行しています。
「脇役」が突然、主役になった理由
GPU(グラフィックス処理装置)が半導体業界の主役として君臨してきたここ数年、CPU(中央処理装置)はどこか影の存在でした。しかし今、その構図が変わりつつあります。
Nvidia のAIインフラ責任者、ディオン・ハリス氏はCNBCの取材に対し、「CPUはAIとエージェントワークフローを拡大する上でボトルネックになりつつある」と明言しました。同社は来週月曜日から始まる年次カンファレンス「GTC」において、エージェントAI向けに最適化された新たなCPUの詳細を発表する予定で、会場にはCPU単体のラックが展示される見通しです。
なぜ今、CPUなのか。その答えは「エージェントAI」という新しいパラダイムにあります。
これまでのAIは、ユーザーが質問し、AIが答えるという「問答型」でした。しかしエージェントAIは違います。自律的に複数のタスクを立案・実行し、複数のAIエージェントが連携しながら目標を達成する「仕事型」AIです。Nvidia のCEO、ジェンスン・フアン氏は先月の決算説明会で「エージェントシステムは複数のエージェントをチームとして生み出している。生成されるトークン数は本当に指数関数的に増えている」と述べ、「ワット当たりの最高パフォーマンスが文字通りすべてだ」と強調しました。
GPUが「多数の小さなコアで同時並行処理」を得意とするのに対し、CPUは「少数の強力なコアで逐次的・汎用的な処理」を担います。エージェントAIは、複数のエージェント間でデータを大量に移動させ、ワークフローを調整する必要があるため、まさにCPUが得意とする汎用的な演算能力を大量に必要とするのです。
「静かな供給危機」と市場の現実
市場調査会社The Futurum Groupは、この状況を「静かな供給危機(Quiet Supply Crisis)」と呼んでいます。同社は2028年までにCPU市場の成長率がGPUを上回る可能性があると予測。Bank of Americaは、CPU市場が2025年の270億ドルから2030年には600億ドルへと倍以上に拡大すると見込んでいます。
供給不足はすでに現実のものとなっています。AMD と Intel は中国の顧客に対して供給不足を警告しており(ロイター報道)、CPUの納期は最大6ヶ月、価格は10%以上上昇しています。チップアナリストのベン・バジャリン氏は「シリコンウェーハは木になるわけではない。10%多く収穫することはできない」と、供給制約の根本的な難しさを指摘します。
現在のサーバーCPU市場シェアは、Intel が60%、AMD が24.3%、Nvidia が6.2%(2025年第4四半期、Mercury Research推定)。残りはAmazonのGraviton、GoogleのAxion、MicrosoftのCobaltなど、ハイパースケーラー各社が自社開発したArm系プロセッサが占めています。
Nvidia 自身は2021年にデータセンター向けCPU「Grace」を発表し、次世代「Vera」が現在量産中です。今年2月には Meta のデータセンターでGrace CPUが単体で大規模導入される多年契約を締結。テキサス大学オースティン校の高度計算センターやロスアラモス国立研究所でも、スーパーコンピューターの電力を担っています。
「プラットフォーム非依存」という Nvidia の賭け
興味深いのは、Nvidia の戦略的な柔軟性です。同社は自社CPUをArmアーキテクチャで設計する一方、NVLinkネットワーク技術を第三者にライセンス供与し、Intel(x86)、Qualcomm、Fujitsu、Arm、さらにはRISC-Vを採用するSiFiveとも連携しています。
ハリス氏は「私たちはArmベースのCPUを構築しているが、x86コミュニティにも深く投資しており、エコシステム全体に投資している。どちらに転んでも強いポジションを持てる」と語ります。
これはGPUという「本業」を守りながら、CPU市場でも存在感を高める「保険」とも言える戦略です。クリエイティブ・ストラテジーズのバジャリン氏はこれを「スープからナッツまで(soup-to-nuts)」戦略と表現。「競争するためには、GPUを買うか何も買わないか、という選択肢だけでは不十分。多様なワークロードに対応するために製品を拡張するしかない」と分析します。
日本企業への影響:見えにくいが、確実なインパクト
日本の視点から考えると、この変化はどこに影響するでしょうか。
まず、日本の主要クラウドプロバイダーや大手製造業がAIインフラを増強する際、CPUの調達コストと納期が新たなリスク要因になります。すでに6ヶ月の納期遅延と10%超の価格上昇が報告されており、データセンター投資計画の見直しを迫られる企業が出てくる可能性があります。
次に、富士通 はNVLinkのライセンス契約を締結しており、独自のArmベースプロセッサ「A64FX」の後継開発においてNvidiaのエコシステムとの親和性を高める方向性が見えます。日本のスーパーコンピューター「富岳」を擁する理化学研究所も、次世代計算基盤の設計においてこのトレンドを無視できないでしょう。
さらに、少子高齢化で労働力不足が深刻な日本にとって、エージェントAIは「仮想労働力」として期待されています。しかしエージェントAIが本格普及するには、CPUを含む計算インフラの整備が前提条件です。インフラの供給制約は、日本のAI活用加速にとっての見えにくいブレーキになりかねません。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
NvidiaがGroqのライセンス契約と人材獲得に約200億ドルを投じた。AIチップ市場の「推論」競争が激化する中、この動きが日本の半導体・AI産業に何をもたらすのか。
AI拡大の陰で米国の電気料金が2020年以降36%超上昇。ハイパースケーラーは費用負担を約束するが、その実現性に疑問の声も。日本企業や家庭への影響を多角的に考察。
Metaが独自開発のAIチップ「MTIAシリーズ」4種を発表。台湾積体電路製造(TSMC)が製造を担い、データセンター拡張と供給リスク分散を狙う。日本の半導体・AI産業への影響を読み解く。
NvidiaがAIクラウド企業Nebius Groupに20億ドルを投資。GPU覇者が「川上」から「川下」へと戦略を拡張する真意とは何か。日本の半導体・クラウド産業への影響も考察します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加