Micron 宣布其 HBM4 36GB 12-Hi 高頻寬記憶體正式進入量產階段,這款記憶體專為 Nvidia 下一代 Vera Rubin 加速器平台設計。HBM4 相較前代提供顯著更高的頻寬和更低的延遲,對提升 AI 推理效率至關重要。與此同時,Micron 也宣布將 2026 財年資本支出從 200 億美元上修至超過 250 億美元,但管理層同時坦言,即便如此大規模的投資,目前仍只能滿足關鍵客戶 50-66% 的 HBM 需求,供需缺口依然巨大。
📌 關鍵重點
- Micron HBM4 36GB 12-Hi 正式量產,專為 Nvidia Vera Rubin 平台
- 2026 財年資本支出從 200 億上修至超過 250 億美元
- 管理層坦承仍只能滿足關鍵客戶 50-66% 的 HBM 需求
- HBM4 提供顯著更高頻寬和更低延遲,大幅提升 AI 推理效率
💡 創業者啟示
HBM 供不應求的程度已經到了「有多少產多少都不夠」的地步。即便 Micron 砸 250 億美元擴產,仍只能滿足一半的客戶需求——這不是供應彈性問題,而是技術週期的根本限制。記憶體不再是低毛利的大宗商品,它已經成為 AI 基礎設施中定價權最強的環節之一。對投資人而言,HBM 供應鏈(Micron、SK Hynix、三星,以及它們的設備供應商如 Lam Research)是 AI 時代最確定性的投資標的之一。