HBM4“通道翻倍”,性能躍升與制造難度并存

HBM4與HBM3e相比最大的變化在于I/O通道數(shù)量從1024個翻倍至2048個,雖然單通道數(shù)據(jù)速率維持在8Gbps以上,但總帶寬實現(xiàn)成倍提升。更高的通道數(shù)量使HBM4即使在同等速率下,也能實現(xiàn)雙倍數(shù)據(jù)吞吐,大幅緩解AI推理與訓練中“內存帶寬瓶頸”。

但這種躍升也帶來了顯著的制造挑戰(zhàn):

Die面積顯著擴大,增加了封裝成本與良率壓力;

更復雜的信號布線對TSV(硅通孔)工藝、封裝對位精度、熱設計等提出更高要求;

越來越多廠商從“純內存Base Die”轉向“邏輯型Base Die”架構,這不僅增加設計復雜度,也抬高了與邏輯芯片協(xié)同的門檻。

因此,HBM4的價格溢價預計將高于HBM3e的20%,達到30%以上,未來也可能進一步上升。這種成本上浮將直接傳導至AI芯片、整機服務器甚至終端應用中。

AI大模型的參數(shù)量、上下文長度和推理并發(fā)能力持續(xù)增長,對GPU架構提出前所未有的帶寬挑戰(zhàn)。在這個背景下,HBM4已成為高端GPU的必選項。

在2025年GTC大會上,NVIDIA劇透了新一代Rubin GPU架構,明確配套HBM4作為主存;與此同時,AMD也在準備與之抗衡的MI400系列,預計同樣會引入HBM4技術。

這意味著,未來AI算力競爭的焦點,不只是TFLOPS多少,而是“每秒能處理多少數(shù)據(jù)”。而這背后,HBM4將成為衡量AI芯片綜合性能的關鍵支點之一。

可以預見,HBM4的部署不僅會出現(xiàn)在頂級GPU中,還將向AI推理芯片、邊緣計算模塊、AI PC處理器等領域延伸。它將逐步從“旗艦專屬”變?yōu)椤案叨藰伺洹薄?/p>

邏輯基底成為趨勢,HBM走向“智能化協(xié)同”

除了通道數(shù)量的躍升,HBM4另一關鍵創(chuàng)新在于:引入邏輯型Base Die架構。

以往的HBM3e采用“純內存型”Base Die,僅起到信號中轉作用,功能相對簡單。而在HBM4中,SK海力士、三星等廠商開始與晶圓代工廠合作,探索引入輕量邏輯功能的底層控制模塊,例如錯誤檢測、電源管理、通道優(yōu)化、SoC協(xié)同等。

這種架構升級帶來的價值在于:

降低SoC與HBM之間的延遲,提升帶寬利用率;

更好支持AI芯片復雜的訪存模式;

為HBM未來嵌入輕計算能力打基礎,比如近存計算(Near-Memory Compute)等形態(tài)。

TrendForce預測說,到2026年,HBM總出貨量將超過300億Gb,HBM4也將在當年下半年取代HBM3e成為主流產(chǎn)品。但同時,產(chǎn)業(yè)競爭格局也日趨集中與不均衡。

SK海力士仍將保持超50%的市場份額,在良率、技術路徑、客戶綁定方面領先;

三星雖具工藝與封裝能力,但需提升HBM4良率與穩(wěn)定性;

美光仍處于追趕階段,HBM3e尚未規(guī)模交付,HBM4量產(chǎn)能力仍待驗證。

此外,由于HBM需要HBM Die + Base Die + TSV封裝 + SoC協(xié)同的完整能力,整個產(chǎn)業(yè)鏈的協(xié)同壓力巨大,任何一環(huán)的不成熟都可能影響產(chǎn)品交付節(jié)奏。

對于下游AI芯片、服務器整機廠商而言,選對合作供應鏈、預判量產(chǎn)時點、控制成本溢價,將是能否把握新一代AI基礎設施機會的關鍵。

未來,誰能率先把HBM4穩(wěn)定落地,誰就有可能在下一輪AI芯片大戰(zhàn)中占據(jù)上風。我們看到的不僅是一款存儲產(chǎn)品的更替,還是AI基礎設施底座競爭格局的重構。

分享到

崔歡歡

相關推薦