Re: [新聞] 雷蒙多態度髮夾彎 允輝達向中國出售AI晶已刪文

看板Stock (股票)作者 (Channel Coding)時間1年前 (2023/12/13 01:59), 編輯推噓3(3036)
留言39則, 5人參與, 1年前最新討論串2/2 (看更多)
這是最近幾天TSLA那邊AI晶片訊息 https://reurl.cc/bl1xdd 現在看來就是NVDA+AMD會繼續有機會在AI晶片市場拉一波 最近另外一個比較紅的新聞是 Mistral AI小公司開發的LLM模型吸引不少人 而Misral AI是用CoreWeave租借算力 開發出來的大模型 這些小公司能靠租算力媲美大公司發展的模型 新聞大概都會讓老黃繼續開心賣他鏟子 ※ 引述《qwe22992168 (蛋疼)》之銘言: : 原文標題:雷蒙多態度髮夾彎 允輝達向中國出售AI晶片 : 原文連結:https://www.ctee.com.tw/news/20231212700408-430701 : 發布時間:2023.12.12 08:26 : 記者署名:工商時報 呂佳恩 : 原文內容: : 美國商務部長雷蒙多(Gina Raimondo)11日表示,美國正在研究輝達為中國市場開發的 : 產品,並於早前與輝達執行長黃仁勳就晶片出口進行討論,她指出,輝達「能夠、將會且 : 應當」向中國出售人工智慧(AI)晶片。 : 美國拜登政府於今年10月擴大晶片管制,劍指AI算力領域,雷蒙多更於本月稍早點名輝達 : ,直言該公司透過推出降規版晶片特別供應中國,她強調,企業不應為短期收入犧牲國安 : ,並警告稱,若再次繞道降規,商務部將會立即出手管控。 : 不過,雷蒙多11日接受媒體訪問時態度明顯軟化許多,她透露商務部將檢查輝達為中國市 : 場開發的晶片,以確保其不會違反出口管制,並指出該部定期與輝達溝通,該公司是很好 : 的合作夥伴,雙方共享資訊。 : 雷蒙多表示,由於多數AI晶片皆用於商業用途,輝達「能夠、將會且應當」向中國AI晶片 : ,不過不會讓該公司出售其最精密、處理能力最高的AI晶片,以避免中國藉此訓練先進AI : 模型。 : 雷蒙多補充指出,她一周前曾與黃仁勳溝通,黃仁勳的態度相當明確,即該公司無意違反 : 拜登政府的規則,願與政府合作,並希望在向中國銷售AI晶片時做「正確的事」。 : 針對雷蒙多的最新言論,輝達表示,目前正在與美國政府合作,在遵循規範的同時,致力 : 於為全球客戶提供資料中心解決方案。 : 至於商務部是否會對輝達的新晶片祭出任何限制,該部門拒絕發表評論,但重申會不斷更 : 新規則,以應對瞬息萬變的威脅。 : 另外,雷蒙多再次呼籲國會通過立法,以解決TikTok等外國應用程式對國家安全構成的潛 : 在威脅,並強調受到規範的不應只有TikTok,因此更需要由法律途徑對此進行管制。 : 心得/評論: : 未來黃勳仁可以向中國出售AI晶片了 : 難怪NVIDIA的股票又在漲了 : 中國又贏了 又能做AI暴打美帝了 : 美帝又輸了 為了賺錢一樣跪下去 : 用美帝的技術來暴打美帝 吃你的飯 砸你的鍋 嘻 : 不愧是制度自信 道路自信 超英趕美 彎道超車 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.169.111.72 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1702403951.A.809.html

12/13 02:21, 1年前 , 1F
我倒覺得Mistral會把算力需求打下去
12/13 02:21, 1F

12/13 02:22, 1年前 , 2F
1. 他主打7B~10B model 強調小模型也可以達標
12/13 02:22, 2F

12/13 02:24, 1年前 , 3F
2. 他的MOE就表明 可以用8x7B 去Complete 40B
12/13 02:24, 3F

12/13 02:51, 1年前 , 4F
7B 也要接近千顆gpu耶。8,個agent就要上萬啊
12/13 02:51, 4F

12/13 03:00, 1年前 , 5F
?? ?你在講啥 一個H100就可以train GPT-3 175B mode
12/13 03:00, 5F

12/13 03:04, 1年前 , 6F
還有scaling law 算力只會要更多啊
12/13 03:04, 6F

12/13 03:05, 1年前 , 7F
h100 80gb 單顆train 100B以上模型?
12/13 03:05, 7F

12/13 03:07, 1年前 , 8F
llama 7b 是82432 hours 80gb A100單顆
12/13 03:07, 8F

12/13 03:08, 1年前 , 9F
h100大概是a100兩倍 用千顆train 也要三天才能train
12/13 03:08, 9F

12/13 03:08, 1年前 , 10F
完整一次
12/13 03:08, 10F

12/13 03:10, 1年前 , 11F
7b現在最陽春做法training也要百顆啊
12/13 03:10, 11F

12/13 03:13, 1年前 , 12F
還沒說100b模型用1byte 方式load 要100gb ram 也超
12/13 03:13, 12F

12/13 03:13, 1年前 , 13F
過單顆h100 80gb 記憶體容量
12/13 03:13, 13F

12/13 04:12, 1年前 , 14F
我的意思是time/money trade-off
12/13 04:12, 14F

12/13 04:14, 1年前 , 15F
1024 A100 train GPT3 需要34d 但我也可以128 340d
12/13 04:14, 15F

12/13 04:14, 1年前 , 16F
我看7B model是不用一天就跑完.. 跑個2week也沒差
12/13 04:14, 16F

12/13 04:15, 1年前 , 17F
反正到最後都是卡在data quality
12/13 04:15, 17F

12/13 04:18, 1年前 , 18F
有差啊。你沒此調整一個參數 learing rate 或schedu
12/13 04:18, 18F

12/13 04:18, 1年前 , 19F
le 就兩個裡拜看結果
12/13 04:18, 19F

12/13 04:19, 1年前 , 20F
而且現在fine-tune都用LORA 記憶體可以大砍
12/13 04:19, 20F

12/13 04:19, 1年前 , 21F
只有做foundation model的要整個model
12/13 04:19, 21F

12/13 04:20, 1年前 , 22F
現在做foundation model也才那幾家..
12/13 04:20, 22F

12/13 04:21, 1年前 , 23F
等你找到對的data 架構和training。至少要數十次調
12/13 04:21, 23F

12/13 04:21, 1年前 , 24F
整 每次五天和每次一個月 差距就是被幹掉
12/13 04:21, 24F

12/13 04:21, 1年前 , 25F
大大做foundmaion model嗎 我們應用沒有這麼多錢
12/13 04:21, 25F

12/13 04:22, 1年前 , 26F
這也是為何meta有五萬張a100 就是搶縮減時間
12/13 04:22, 26F

12/13 04:23, 1年前 , 27F
misra就是做pretrained llm
12/13 04:23, 27F

12/13 04:23, 1年前 , 28F
應用面就真的都卡在生資料和洗資料 我是不覺得
12/13 04:23, 28F

12/13 04:23, 1年前 , 29F
大家還會瘋狂搶GPU啦
12/13 04:23, 29F

12/13 04:23, 1年前 , 30F
現在不是只有大廠玩的起 很多學校也玩的起
12/13 04:23, 30F

12/13 06:03, 1年前 , 31F
推特有人說大概明年上半年就能看到有人把GPT4等級的
12/13 06:03, 31F

12/13 06:04, 1年前 , 32F
模型開源,大廠大模型還真的沒辦法獨佔惹
12/13 06:04, 32F

12/13 06:44, 1年前 , 33F
上半年要把GPT4等級開源很難吧 誰要開第一槍
12/13 06:44, 33F

12/13 06:45, 1年前 , 34F
哪個大廠願意開源給你fine-tune
12/13 06:45, 34F

12/13 07:07, 1年前 , 35F
很快阿 現在開源已經追上3.5惹
12/13 07:07, 35F

12/13 07:07, 1年前 , 36F
再花半年達到GPT4 蠻正常DER
12/13 07:07, 36F

12/13 07:08, 1年前 , 37F
這東西以後只會越更新越快而已
12/13 07:08, 37F

12/13 07:09, 1年前 , 38F
當然那時候GPT4.5已經推出惹八
12/13 07:09, 38F

12/13 07:33, 1年前 , 39F
7b叫做小模型XD 真會凹
12/13 07:33, 39F
文章代碼(AID): #1bU9zlW9 (Stock)
文章代碼(AID): #1bU9zlW9 (Stock)