ここ数年、「AI半導体ならNVIDIA」というのが市場の揺るぎない常識でした。しかし、いまその図式に変化の兆しが現れています。GPU一強で進んできたAIブームの背後で、AIの使われ方そのものが「学習」から「推論」へ、そしてさらに「エージェント」へとシフトし始めているからです。
ChatGPTのように一問一答に応えるだけでなく、ユーザーの代わりに自分で考え、調べ物や予約、メール作成までこなしてくれる「エージェンティックAI」。このタイプのAIが必要とするのは、GPUのような特殊な計算装置だけではありません。普通のサーバーCPUと、それを支える大量のメモリの出番が、確実に増えつつあります。
この変化の最前線にいるのが、米国の半導体企業Rambus(ランバス)です。サーバー用メモリ(DDR5)の脇に必ず載る補助チップで世界シェア4割超を握る最大手。信号タイミングを整え高速動作を安定させる、文字通り"縁の下"の存在で、AIサーバー向けメモリが売れるほど着実に売上が伸びる独特なポジションにあります。

そのRambusが2026年4月下旬に開いた決算説明会では、AI業界全体の地殻変動を示唆する発言が相次ぎました。GPUとCPUの勢力図、部品供給逼迫の長期化、半導体サプライチェーンの脱中国、そして電力問題が変えるサーバー設計。いずれもAIブームの「次の段階」を読み解く、重要なヒントになっています。