[請問] 要佈署本地端模型給沉浸式翻譯自用,有

看板ask (問板)作者 (edm)時間1月前 (2025/02/09 09:15), 編輯推噓0(005)
留言5則, 1人參與, 4周前最新討論串1/1
要佈署本地端模型給 沉浸式翻譯專用而已 不想用其訂閱制 有什麼硬體需求要注意 有人試著這樣用過嗎? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.183.7 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/ask/M.1739063718.A.C51.html

02/11 12:23, 4周前 , 1F
不會比較省錢喔 顯卡非常貴
02/11 12:23, 1F

02/11 12:26, 4周前 , 2F
本地跑模型又貴又慢又笨 除非你買好幾張專業卡
02/11 12:26, 2F

02/11 12:28, 4周前 , 3F
不然只能跑比較笨的超小量化模型
02/11 12:28, 3F

02/11 12:29, 4周前 , 4F
有用cpu跑的方法 可以跑比較大的模型但非常慢
02/11 12:29, 4F

02/11 12:40, 4周前 , 5F
不然可以買張5090跑deepseek32b試試
02/11 12:40, 5F
文章代碼(AID): #1dg06cnH (ask)
文章代碼(AID): #1dg06cnH (ask)