[新聞] AI晶片泡沫太大了,高通推出AI資料中心解決方案,只要搶下3~5%市場就足夠

看板Tech_Job (科技人)作者 (H)時間8小時前 (2025/10/31 13:51), 編輯推噓2(204)
留言6則, 4人參與, 1小時前最新討論串1/1
標題:AI晶片泡沫太大了,高通推出AI資料中心解決方案,只要搶下3~5%市場就足夠 來源:iknow科技產業資訊室 原文網址:https://pse.is/8amu7p 原文: 生成式AI的快速普及帶動巨大的電力需求增長,成為日本能源與產業政策的新課題。由三 菱總合研究所(MRI)提出的《生成式AI的普及對日本電力需求的影響》(生成AIの普及が 与える日本の電力需要への影響)報告特別針對資料中心與網路基礎設施之生成AI導入對 ICT部門電力消耗影響進行試算,並提出在電力限制下的最佳應對策略。報告指出,AI模 型的規模化、應用範圍擴大與運算需求提升,將使日本電力需求在2040年前大幅上升,若 缺乏對策,恐成為數位轉型與國際競爭力的瓶頸。 在電力需求推計方面,MRI以「資料處理量」與「電力效率」為兩大核心變數。隨著AI普 及,網路流量預計至2040年將增至2020年的約348倍,若AI模型大規模化趨勢持續,ICT部 門電力消耗可能增加2至27倍。電力效率的改善主要取決於半導體技術的演進,包括先端 封裝(advanced packaging)、光電融合(opt-electronic integration)與AI專用晶片 (AI-specific chips)。其中,若光電融合與AI特化晶片能順利發展,電力效率可較 2020年提升至6萬倍;反之,若技術停滯,電力負擔將急劇上升,導致2040年ICT用電量突 破國家電力供應極限。 報告設定三種AI利用情境:①「計算量爆發型」,所有應用依賴超大型基盤模型,雖具最 高精度,但電力需求可能占約全國55%;②「適材適所型」,依用途選擇不同規模AI模型 ,以降低電力浪費;③「省電力優先型」,在碳中和政策下以小型模型為主。MRI認為第 二種「適材適所」情境最符合日本現實,既可維持科技創新,也能在能源有限條件下確保 AI普及。該模式中,大型AI由雲端巨頭運行,小型AI則於地方邊緣運算(edge computing )或裝置端執行,形成多層次AI生態,如此可避免過度依賴海外數據中心,減少「數位貿 易赤字」,並促進再生能源在地方端應用。 報告進一步指出,若日本能在AI特化晶片、光電融合及封裝技術上追上全球前沿,並發展 分散式處理體系(例如將非即時的AI訓練外包海外、即時推論留於國內),可顯著降低 ICT用電對整體能源系統的壓力。另一方面,在產業結構層面,應鼓勵中小企業與研究機 構共同開發B2B或專業領域(B2P)的特化型AI,以「省能+信賴」作為競爭優勢,促進AI 與產業的深度融合。報告同時警示,若未同步強化電力供應與碳中和平衡,日本的AI利用 環境將難以持續。 最後,MRI在結論說明,生成AI的普及正在重塑日本的產業與能源結構,而「電力效率 × 技術創新 × 適材適所利用」的組合是日本邁向可持續AI社會的核心戰略。政府與產 業需同步推進半導體研發、電力基礎設施與政策協調,確保在能源受限的情況下,仍能發 揮生成AI的最大潛力,維持經濟與數位轉型的雙重優勢,未來十年將是日本在「數位競爭 力」與「能源安全」間取得平衡的關鍵時期。 心得: 智慧型手機市場成長停滯、蘋果業務縮水、三星部分採用自家處理器,高通已經無法再依 靠過去的護城河維持優勢。在這個前提下,跨入 AI 資料中心市場並不只是「擴張」,而 是「尋找下一個可以讓公司不被淘汰的地位」。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1761889884.A.ABE.html

10/31 14:19, 7小時前 , 1F
電力預估哪有那麼複雜 學學我們台灣如
10/31 14:19, 1F

10/31 14:19, 7小時前 , 2F
何預估未來電力需求 日本那麼菜怪不得
10/31 14:19, 2F

10/31 14:19, 7小時前 , 3F
被我們追上
10/31 14:19, 3F

10/31 15:13, 6小時前 , 4F
藏電
10/31 15:13, 4F

10/31 16:01, 6小時前 , 5F
小編好 語焉不詳文章發在電蝦版就好, tkx
10/31 16:01, 5F

10/31 20:52, 1小時前 , 6F
文章代碼(AID): #1f14vSg- (Tech_Job)
文章代碼(AID): #1f14vSg- (Tech_Job)