SK hynixが世界を驚かせる:CES 2026で披露された16層HBM4の威力
SK hynixがCES 2026で世界初の16層HBM4(48GB)を披露。Nvidiaとの協力関係や、次世代AIメモリ市場でのリーダーシップについて詳しく解説します。16層HBM4 2026の最新スペックに注目。
48GBという驚異的な容量を持つ次世代メモリが、ついにその姿を現しました。韓国の半導体大手であるSK hynixは、ラスベガスで開催中のCES 2026において、世界初となる16層HBM4を一般公開し、AIメモリ市場における圧倒的なリーダーシップを誇示しました。
16層HBM4 2026の衝撃:従来モデルを凌駕するスペック
今回の展示の目玉は、現在開発が進められている16層HBM4です。これは、以前の主力であった12層HBM4(36GB)を大幅に上回る性能を誇ります。HBMとは、複数のDRAMを垂直に積み上げることでデータ転送速度を飛躍的に高めたメモリのことで、巨大な計算能力を必要とするAIサーバーには欠かせない存在です。
| 項目 | 12層 HBM4 | 16層 HBM4 |
|---|---|---|
| 層数 | 12層 | 16層 |
| 容量 | 36GB | 48GB |
| 主な用途 | ハイエンドAIサーバー | 次世代AIコンピューティング |
Nvidiaとの強固な同盟と市場の展望
会場では、AIチップの絶対王者であるNvidiaのGPUモジュールに搭載されたHBM3Eも展示されています。連合ニュースなどの報道によると、SK hynixの郭魯正(クァク・ノジョン)CEOは展示会前日にNvidia関係者と密会し、協力体制の強化について議論したとされています。この両社の蜜月関係は、今後数年間のAI産業の行方を左右する重要な鍵となるでしょう。
関連記事
AIブームを支える真の競争優位性はNvidiaのハードウェアではなく、CUDAというソフトウェア基盤にある。日本企業や開発者にとって何を意味するのか、多角的に読み解く。
SpaceXがテキサス州オースティンに最大119億ドル規模のAIチップ工場「Terafab」を建設予定。日本の半導体産業や企業戦略にどんな影響を与えるか、多角的に読み解きます。
NvidiaのCEO黄仁勲氏がAIによる雇用喪失論を否定。「AIは産業規模の雇用創出機」と主張する一方、信頼できる機関は米国の仕事の最大15%が消滅すると試算する。日本社会への影響を多角的に考察する。
AIチップメーカーCerebrasが最大3,500億円規模のIPOを準備中。OpenAIとの複雑な関係、日本の半導体産業への影響、そしてGPU支配に挑む新技術の意味を読み解く。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加