
4月19日消息:根據(jù) TrendForce 集邦咨詢研究顯示,AI 服務(wù)器出貨動能強(qiáng)勁,帶動 HBM 需求提升。預(yù)計到 2022 年,三大原廠 HBM 市占率分別為 SK 海力士(SK hynix)50%、三星(Samsung)約 40%、美光(Micron)約 10%。
HBM 全稱 high bandwidth memory,新型 CPU / GPU 內(nèi)存芯片,是指將多個 DDR 芯片堆疊在一起后和 GPU 封裝在一起,實現(xiàn)大容量,高位寬的 DDR 組合陣列。
高階深度學(xué)習(xí) AI GPU 的規(guī)格也刺激了 HBM 產(chǎn)品更迭,三大原廠也已規(guī)劃相對應(yīng)規(guī)格 HBM3 的量產(chǎn)。今年將有更多客戶導(dǎo)入 HBM3 的預(yù)期下,SK 海力士作為目前唯一量產(chǎn)新世代 HBM3 產(chǎn)品的供應(yīng)商,其整體 HBM 市占率有望藉此提升至 53%。
預(yù)計到 2023 年,AI 服務(wù)器出貨量年增率有望達(dá) 15.4%,刺激了 Server DRAM、SSD 與 HBM 需求同步上升。AI 服務(wù)器多增加 GPGPU 的使用,因此以 NVIDIA A100 80GB 配置 4 或 8 張計算,HBM 用量約為 320~640GB。未來在 AI 模型逐漸復(fù)雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動 Server DRAM、SSD 以及 HBM 的需求成長。
