[心得] 我做了一個幾何語義模型引擎(PipeOwl)

看板Soft_Job (軟體人)作者 (無聞)時間5小時前 (2026/02/19 20:35), 編輯推噓0(000)
留言0則, 0人參與, 最新討論串1/1
最近把之前做的 pipowl(minimal SBERT)重構了一下 變成一個比較乾淨的幾何語義引擎,叫做 PipeOwl 老實說也不是什麼很大的模型 比較像是我自己在研究語義結構時拆出來的一層 --- 它在做什麼? 不是大型 Transformer, 也沒有接 decoding 端。 目前的形式是: 把模型壓成 .npy 向量場 然後用幾何方式做語義運算 核心公式: score = α·base + β·delta_scalar 整體是: 純 Python 不跑大型 Transformer 推理 可以嵌入 CLI / API / Chatbot / IME 本地語義比對速度接近輸入法候選 比較像是一個: embedding 運算層 + 語義場資料 --- 為什麼做這個? 其實只是想試試看: 語義模型一定要是黑箱 end-to-end 嗎? 如果把模型壓成向量場, 讓語義變成可以觀測、可以組合的結構, 會發生什麼事? 目前還在摸索中, 尤其是拿掉 sentence-transformers 之後, 訓練方式跟主流就完全不同了。 算是一個方向性的嘗試 --- 已知問題 / 還在實驗的地方 1.目前向量還沒做 norm1(正規化方式還在想要不要全場一致處理) 2.β·delta_scalar 這一層,可能改成降維後當作 loss 場會更合理,還沒完整實測 3.「語義」這類型的詞score有點高 可能觸發後要RAG名詞解釋 --- Hugging Face https://huggingface.co/WangKaiLin/PipeOwl 一些 benchmark 圖和筆記 https://hackmd.io/@galaxy4552/BkpUEnTwbl --- -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.73.51.159 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1771504516.A.EC4.html
文章代碼(AID): #1fbmE4x4 (Soft_Job)
文章代碼(AID): #1fbmE4x4 (Soft_Job)