[新聞]記憶體三大原廠齊聚 SEMICOM,韓廠更喊出要強化台韓進一步合作
記憶體三大原廠齊聚 SEMICOM,韓廠更喊出要強化台韓進一步合作
https://tinyurl.com/25jdh5wc
隨著生成式 AI 的爆炸性成長,記憶體不再僅是輔助元件,而是人工智慧智慧的起點與關
鍵驅動者。因此,在 2025 Semicon Taiwan 的記憶體論壇上,難得的全球三大記憶體大
廠 SK 海力士、三星和美光同台參與活動,並透過主題演講訴說當前重新定義記憶體在
AI 時代中角色的必要性,以共同面對 AI 基礎設施在效能、功耗和擴展性方面的嚴峻挑
戰,並透過創新與合作,形塑 AI 的未來。
SK 海力士藉全堆疊記憶體引領 AI 效能與效率
SK 海力士副總裁崔俊龍強調,AI 市場正以驚人的速度發展,數十甚至數百種 AI 模型正
擴展到成千上萬的下游應用中。這對 AI 基礎設施提出了跨越效能、可擴展性和功耗效率
的龐大需求。記憶體,特別是高頻寬記憶體 (HBM),已成為 AI 機會的核心。SK 海力
士正從單純的記憶體供應商轉變為提供 「全堆疊記憶體」 解決方案,並以此願景引領業
界。
另外,AI 基礎設施面臨頻寬、功耗、熱密度和實體空間等關鍵限制。預計到2030年,數
據中心所消耗的電力將比 2023 年增加三到六倍,其中 AI 工作負載將佔總電力需求的
65%。功耗已成為 AI 產業最關鍵的考量因素。崔俊龍指出,HBM 在單一 AI 機架中的功
耗佔比正從 12% 增加到未來的 18% 或更高,而 HBM 功耗效率提升 10%,可使整個機架
的總功耗節省 10%。記憶體頻寬更是 AI 訓練和推論的瓶頸。
崔俊龍強調,為應對這些挑戰,SK 海力士持續推動技術邊界。其最新的 HBM 升級版本相
較於 HBM3,頻寬提升超過 200%,功耗效率提升高達 40%。SK 海力士更率先開發出
HBM3E,其容量達 36GB,頻寬超過 2TB/s,樹立了新的行業標竿。未來,HBM 將不再僅
是記憶體,而是會嵌入新功能和處理能力,從被動變為主動式智慧的一部分,為每個客戶
和 AI 晶片量身定制具備專用功能的記憶體。
最後,SK 海力士明確表示,台灣擁有獨特的 「橫向整合生態系統」,涵蓋晶圓代工、封
裝、測試到系統整合,是唯一能提供全階段 AI 平台的區域。SK 海力士將運用其 HBM 的
領先地位,為台灣的 AI 生態系統提供所需的記憶體,共同建立 AI 基礎設施的未來。他
們強調將與台灣 AI 的橫向整合站在一起。
三星客製化解決方案與效率創新應對 AI 挑戰
三星記憶體產品規劃副總裁 Jangseok Choi 在演講中表示,AI 模型的計算需求在過去
15 年間每年成長 4.7倍,但計算效能以及記憶體容量和頻寬的增長速度卻遠不及此,導
致了嚴重的瓶頸。OpenAI 圖像生成功能引起的 GPU 過熱問題,便是 AI 基礎設施不足的
寫照。此外,到 2030 年,全球數據中心的電力消耗可能比去年翻倍,若 AI 採用率高於
預期,甚至可能更高。
為解決AI時代的四大挑戰 (效能、基礎設施、功耗和工作負載管理),三星提出了 「客
製化 HBM 解決方案」(Bespoke HBM)。他們可以根據客戶的具體需求調整 HBM 的特性
和功能,無論是追求最大頻寬、成本效益還是功耗效率。三星作為唯一能夠提供記憶體、
邏輯、晶圓代工和先進封裝等全面內部服務的公司,具備獨特的價值主張。
在提升效率方面,Jangseok Choi 表示,三星正在開發 PIM(處理器記憶體) 技術,透
過將某些任務從 GPU 卸載,顯著降低功耗並提升系統整體效能。例如,LPDDR6 PIM 的效
能比傳統解決方案高 3.6 倍,能耗卻減半。此外,針對生成式 AI 龐大的數據需求,三
星推出新的 AI 分層儲存解決方案,包括效能層、儲存層和容量層,並開發了針對
LPDDR 記憶體的 SoC-M2,以實現數據中心的擴展和效率優化。在未來,三星將推動
HBM 封裝從熱壓縮接合轉向混合銅接合,實現更高的堆疊層數、更佳的散熱和更高的信
號完整性。
演講最後,Jangseok Choi 明確表示,要感謝台灣半導體產業提供的寶貴支持,這對三星
實現其目前的領先地位至關重要。面對日益複雜的產業挑戰,三星強調與台灣產業的持續
合作對於開創創新解決方案和推動技術進步是不可或缺的。他們希望與台灣共同建設更好
的未來。
美光記憶體創新與 3D DRAM 的突破
美光副總裁 Nirmal Ramamurthy 指出,AI 正在帶來巨大的經濟價值和產業變革,但AI模
型的複雜度不斷提升,需要驚人的記憶體容量,預計不久的將來參數將達到數萬億。目前
,計算效能的成長速度(每兩年 1.6 倍)快於記憶體性能,導致兩者之間的差距不斷擴
大,這要求記憶體必須以更快更好的速度擴展。能源效率是 AI 可持續發展的另一個關鍵
限制,預計到 2030 年,數據中心將佔美國能源需求的 10%,其中大部分來自 AI。
Nirmal Ramamurthy強調,新的 AI 工作負載促使伺服器架構演變,專用計算刀鋒伺服器
中的 GPU 與 HBM 緊密耦合,而 LPDDR 等記憶體也透過高性能互連與 CPU 相連。美光強
調,AI 的成功仰賴於一個全面的記憶體階層,包括高頻寬記憶體 (HBM)、平衡主記憶
體(如 LPDDR、DDR 等)以及可擴展的大容量記憶體和 AI 優化儲存。美光提供了廣泛的
記憶體產品組合,以滿足 AI 計算系統的多元化需求。
Nirmal Ramamurthy進一步指出,記憶體技術的發展必須優化效能、容量和功耗,以應對
從數據中心到邊緣 AI 設備的各種需求。HBM 的成功有賴於顛覆性的製程、設計創新和先
進封裝架構。DRAM 核心面臨著微縮至原子級限制、電容長寬比增加以及感測裕度縮小等
技術挑戰。
為克服這些限制,美光預期未來 DRAM 將走向類似於 3D NAND 的 「3D DRAM」 結構,透
過垂直堆疊來增加單元體積。這項技術需要高性能 CMOS、複雜的晶圓接合以及創新的製
程設備。此外,美光也在探索 1T-1C 鐵電記憶體等新興記憶體,因其接近 DRAM 的性能
和成本效益,有望在擴展記憶體中發揮作用。美光也積極利用 AI 和建模來加速自身的技
術開發流程。
之前韓國把台灣弄得很慘,也把台灣當作競爭對手,現在回頭喊台韓友好
事情應該不單純,該不會學日本,也準備偷台積技術?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.195.195.224 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1757502246.A.6DE.html
Tech_Job 近期熱門文章
PTT職涯區 即時熱門文章