2026年1月5日 星期一

SRAM是什麼?和HBM有何不同?一文搞懂兩種「關鍵記憶體」的定位差異 台廠受惠股有哪些?

工商時報  記者:方明 2026.01.04

輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,意外讓SRAM躍上舞台。在 AI、伺服器與高效能運算(HPC)時代,「記憶體」早已不只是容量的比拼,而是速度、延遲與能耗的全面競賽,其中SRAM(靜態隨機存取記憶體)與HBM(高頻寬記憶體),正是兩種扮演關鍵但角色完全不同的核心技術。SRAM是什麼?和HBM有何不同?在SRAM成為市場新焦點之際,那些台廠將迎結構性機會。

SRAM是什麼?和HBM有何不同?

SRAM(Static Random Access Memory靜態隨機存取記憶體)是一種「高速、低延遲」的記憶體,最常被用在CPU、GPU、AI晶片內部。SRAM是隨機存取記憶體的一種,「靜態」的意思是指,只要保持通電,SRAM中的資料就能持續保存,然而,一旦電力供應停止,資料將會消失,因此屬於揮發性記憶體(Volatile Memory),這點不同於斷電後仍能保存資料的唯讀記憶體(ROM)或快閃記憶體(Flash Memory)。

SRAM的特點包括速度極快、延遲極低(奈秒等級);不需刷新(refresh),資料可穩定保存;功耗低(相對DRAM);面積大、成本高(每bit成本遠高於DRAM)不適合做大容量記憶體。因此SRAM的角色是「讓晶片能即時運算、不必等待資料」的高速暫存區。

HBM(High Bandwidth Memory,高頻寬記憶體)則是一種進階型DRAM,透過「3D堆疊 +矽穿孔(TSV)」技術,把多層記憶體堆疊在一起,再與邏輯晶片以超寬匯流排連接。

HBM的特點則是頻寬極高(可達上TB/s);功耗比傳統DRAM更低;容量比SRAM大得多;延遲高於SRAM、低於一般DRAM;成本高、製程難度高。HBM主要用於AI GPU(如輝達H100、B100)、高效能運算(HPC)、AI訓練、推論加速器。HBM的角色是「讓大量資料能高速餵給運算核心」的記憶體倉庫。

用一句白話來說,意即SRAM負責「快」,HBM負責「多」,兩者共同決定AI晶片能跑多快、跑多遠。

SRAM為何突然躍上舞台?

過去幾年,AI發展的核心在於「算力規模」,誰能堆更多GPU、跑更大的模型,誰就領先,這使得HBM成為焦點。但現在風向正在改變,隨著生成式AI進入商業化階段,市場需求從「訓練能力」轉向「即時推論能力」,包括即時語音助理;即時翻譯、客服;自駕與機器人反應系統;金融交易、風控決策,這類應用最怕的不是算力不夠,而是「延遲太高」,而這正是HBM的罩門。

此外,輝達斥資200億美元取得Groq的LPU(Language Processing Unit)技術授權,表面看是AI加速器戰爭的一環,但其實與SRAM的關聯非常深,主要在於LPU的性能關鍵不在算力,而在「極端高速、低延遲的記憶體存取」,而這正是SRAM最擅長、也是不可替代的領域。

那麼為何輝達要買Groq的「技術」而非晶片?因為輝達已經掌握GPU架構、CUDA生態系、HBM封裝與供應鏈,但它「缺」的是極致低延遲推論架構的設計,Groq的價值在於如何用大量SRAM +簡化控制邏輯,換取比GPU更可預測、更即時的AI回應,特別適用於AI Agent、即時語音、交易、機器人控制,這使得SRAM從「配角」升級為「主角」。

AI時代記憶體戰線擴大 SRAM成新焦點,台廠迎結構性機會

隨著AI伺服器、車用電子與工業自動化需求快速升溫,全球半導體產業正迎來新一波結構性轉變。在高頻運算、即時反應與低功耗需求同步攀升下,過往被視為利基型產品的SRAM,正逐步走向舞台中央。法人指出,這波記憶體復甦不再僅由DRAM與NAND主導,具備高可靠度、高毛利特性的SRAM,正成為AI與車用時代的「關鍵零組件」,台廠也因此迎來新一輪受惠契機。

相較於DRAM著重容量、NAND主打儲存,SRAM主打的是「速度與穩定性」,廣泛用於CPU快取、AI加速器、車用控制模組、工業設備與通訊晶片,隨著AI模型規模擴大、邊緣運算滲透率提升,對低延遲、高可靠記憶體的需求明顯提升。

法人指出,AI伺服器內部除HBM外,仍大量依賴SRAM作為控制與暫存單元,而自駕車、ADAS系統與工控設備,亦高度仰賴長生命週期、耐高溫的SRAM產品,使其在供應鏈中的戰略地位持續上升。

在此趨勢下,台灣相關廠商浮現明顯機會,華邦電是國內少數具備記憶體設計與製造整合能力的業者,長期深耕客製化與嵌入式SRAM,產品已廣泛應用於車用、工控、通訊與AI邊緣裝置,並持續強化高可靠度與長供應周期優勢。

鈺創專注記憶體設計與IP授權,在嵌入式SRAM與特殊應用記憶體領域累積深厚基礎,近年積極調整產品組合,切入AI加速器與客製化晶片需求。

摩爾投顧分析師陳冠廷認為,即便LPU極度追求運算速度,仍離不開外部記憶體的協同支援,AI發展不可能只拚速度,隨著語言模型規模擴大、運算量與生成內容暴增,頻寬與儲存需求勢必同步提升,HBM與各類儲存記憶體仍不可或缺,最終結果將是LPU強化推論體驗,吸引更多使用者投入AI應用,進而帶動SRAM、DRAM、HBM甚至SSD全面成長,而非單純由SRAM取代HBM。

陳冠廷表示,推論在AI後期將享有長期成長週期,因為每個訓練完成的語言模型,部署後全球千百萬使用者的每次操作都是推論,帶來龐大需求,推論同時消耗大量記憶體,不僅SRAM、HBM受益,NAND Flash、SSD、HDD等存儲產品也同步成長,在台廠記憶體族群中,群聯專攻SSD固態硬碟模組,華邦電具SRAM產能,南亞科則布局利基型DRAM市場。