Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析
總覺得這個橫空出世的deepseek有點貓膩
像LDPC大所說 感覺好像真的用了openai 的ChatGpt的數據來創造訓練資料 但openAI很難
證明自己的東西被偷了
我去看了一下deepseek的python api怎麼用
很有趣 結果deepseek用的是 openai的library https://api-docs.deepseek.com/
```
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.c
om")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
```
難道OpenAI裡面出了個中國間諜?
※ 引述《LDPC (Channel Coding)》之銘言:
: 目前就在旁邊吃瓜觀望@@ 成本這種本就是用開源後的可以拿已有的模型去當輔助下降
成?
: 最常見作法就是拿gpt-4o當judge或者當數據產生器 去精煉數據集 如果再沒有gpt-4o
: 情況下 很多高質量資料去產生就花很錢 最經點例子就是LLaVa 一個博士班學生 用gpt
-4
: 去產生高質量多模態數158k 極小量數據集 用8xA100 1天時間 就幹爆之前所有
: 多模態大模型 能打贏saleforce的一間大公司堆出來的多模態BLIP-2模型
: 這傢伙精髓站就是在gpt-4模型巨人的肩膀上
: 資料的quality會影響大模型 而資料可以透過開源高質量模型去萃取
: 如果再套用COT 這些都可以繼續進化 paper有些細節像是數據集這類如何精煉
: 反而可能會是一個重要一環 但大家都會藏這類細節 @@/
: 2025現在大家都殺到LLM Agent去了 LLM刷模型任務分數熱潮有點下降
: 大部分都跑去搞LLM決策部分 和COT (思考鏈) 多步驟分析任務
: 像是waymo自駕端對端的決策都搞了一個EMMA 用Gemini 去往上蓋
: (這時候自駕公司有自己的很強的LLM就很有用了 隨手不負責預測亞麻zoox會拿自家
: LLM或anthropic來搞end-2-end多模態)
: 然後LLM Agent如果要放在機器人和自駕
: 一定得on-device 因為雲端延遲太慢 風險高 所以1B~4B這陣子的on-device模型
: 能力也在不斷突破 所以on-device LLM不太會在是AI-PC 除非是屬於私密資料等應用場
景
: 而edge/on-devcie AI 可能突破點會在機器人
: 自駕的趨勢之後會跟LLM走上同陣線 在某個時間點 等閉源LLM開始時 就是差不多AI模
型
: 的盡頭開始產業化 也許端對端LLM決策 可以強化視覺上標籤數據不足 (不確定這點
: 但直覺上認為 思考練LLM Agent可以降低場景車用數據量..QQ 基於模型泛化能力)
: 這會給其他車廠追上特斯拉的機會 特斯拉自身的LLM可來自grok 而3D基礎模型
: foundation model 像是李飛飛的空間模型 有一定機會能幫助自駕 可以直接融合LLM
: 產生端對端多模態 而李飛飛又跟狗家走很近 所以想單賭個股 可以賭賭看狗家
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.150.123.92 (美國)
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1737951957.A.14E.html
→
01/27 12:29,
22小時前
, 1F
01/27 12:29, 1F
你才是大大 改好了 :)
→
01/27 12:29,
22小時前
, 2F
01/27 12:29, 2F
※ 編輯: lucien0410 (67.150.123.92 美國), 01/27/2025 12:30:35
噓
01/27 12:30,
22小時前
, 3F
01/27 12:30, 3F
→
01/27 12:30,
22小時前
, 4F
01/27 12:30, 4F
→
01/27 12:30,
22小時前
, 5F
01/27 12:30, 5F
推
01/27 12:31,
22小時前
, 6F
01/27 12:31, 6F
推
01/27 12:31,
22小時前
, 7F
01/27 12:31, 7F
推
01/27 12:32,
22小時前
, 8F
01/27 12:32, 8F
噓
01/27 12:33,
22小時前
, 9F
01/27 12:33, 9F
→
01/27 12:34,
22小時前
, 10F
01/27 12:34, 10F
噓
01/27 12:35,
22小時前
, 11F
01/27 12:35, 11F
→
01/27 12:35,
22小時前
, 12F
01/27 12:35, 12F
推
01/27 12:35,
22小時前
, 13F
01/27 12:35, 13F
→
01/27 12:35,
22小時前
, 14F
01/27 12:35, 14F
→
01/27 12:36,
22小時前
, 15F
01/27 12:36, 15F
推
01/27 12:41,
22小時前
, 16F
01/27 12:41, 16F
→
01/27 12:41,
22小時前
, 17F
01/27 12:41, 17F
→
01/27 12:44,
22小時前
, 18F
01/27 12:44, 18F
噓
01/27 12:45,
22小時前
, 19F
01/27 12:45, 19F
噓
01/27 12:47,
22小時前
, 20F
01/27 12:47, 20F
噓
01/27 12:55,
22小時前
, 21F
01/27 12:55, 21F
噓
01/27 13:03,
21小時前
, 22F
01/27 13:03, 22F
推
01/27 13:13,
21小時前
, 23F
01/27 13:13, 23F
噓
01/27 13:14,
21小時前
, 24F
01/27 13:14, 24F
→
01/27 15:48,
19小時前
, 25F
01/27 15:48, 25F
→
01/27 15:49,
19小時前
, 26F
01/27 15:49, 26F
→
01/27 15:49,
19小時前
, 27F
01/27 15:49, 27F
推
01/27 16:48,
18小時前
, 28F
01/27 16:48, 28F
噓
01/27 17:37,
17小時前
, 29F
01/27 17:37, 29F
噓
01/27 18:03,
16小時前
, 30F
01/27 18:03, 30F
推
01/27 18:16,
16小時前
, 31F
01/27 18:16, 31F
噓
01/27 19:23,
15小時前
, 32F
01/27 19:23, 32F
討論串 (同標題文章)
完整討論串 (本文為第 3 之 3 篇):
16
422
Stock 近期熱門文章
210
513
PTT職涯區 即時熱門文章