Re: [公告] 板規十五 offer請益文 m文解除申請已刪文

看板Tech_Job (科技人)作者 (j)時間6月前 (2024/05/20 09:06), 6月前編輯推噓-1(011)
留言2則, 2人參與, 6月前最新討論串3/3 (看更多)
奧特曼回應: https://x.com/sama/status/1791936857594581428 "關於 openai 最近如何處理股權的事情: 我們從來沒有收回任何人的既得股權,如果人們不簽署分居協議(或不同意不貶低協議) ,我們也不會這樣做。既得權益就是既得權益,句號。 我們先前的退出文件中有關於潛在股權取消的規定;儘管我們從未追回任何東西,但它絕 不應該是我們在任何文件或通訊中擁有的東西。這是我的事,也是我為數不多的幾次運 行 openai 感到尷尬的事之一;我不知道會發生這種事,但我應該知道。 在過去一個月左右的時間裡,該團隊已經開始修復標準退出文件。如果任何簽署了這些舊 協議的前員工對此感到擔心,他們可以聯絡我,我們也會解決這個問題。對此感到非常抱 歉。" https://x.com/gdb/status/1791869138132218351 OpenAI總裁也發了聲明: "我們非常感謝 Jan 為 OpenAI 所做的一切,我們知道他將繼續從外部為這項使命做出貢 獻。鑑於他的離職引發的問題,我們想解釋我們如何看待我們的整體策略。 首先,我們提高了對通用人工智慧風險和機會的認識,以便世界能夠更好地做好準備。我 們反覆證明了擴大深度學習的難以置信的可能性,並分析了它們的影響;在此類呼籲流行 之前呼籲對 AGI 進行國際治理;並幫助開創了評估人工智慧系統災難性風險的科學。 其次,我們一直在為安全部署功能日益強大的系統奠定基礎。首次弄清楚如何確保新技術 的安全並不容易。例如,我們的團隊做了大量工作,以安全的方式將 GPT-4 推向世界, 此後根據部署中學到的經驗教訓,不斷改進模型行為和濫用監控。 第三,未來將比過去更艱難。我們需要不斷提高安全工作水平,以適應每種新車型的風險 。我們去年採用了準備框架,以幫助系統化我們的做法。 現在似乎是討論我們如何看待未來的最佳時機。 隨著模型的能力不斷增強,我們預計它們將開始更深入地與世界融合。使用者將越來越多 地與由許多多模式模型和工具組成的系統進行交互,這些系統可以代表他們採取行動,而 不是僅透過文字輸入和輸出與單一模型對話。 我們認為這樣的系統將對人們非常有益和有幫助,並且可以安全地交付它們,但這需要大 量的基礎工作。這包括對他們在訓練時所涉及的事物的深思熟慮、解決可擴展監督等難題 以及其他新型安全工作。當我們朝著這個方向建立時,我們還不確定何時會達到發布的安 全標準,如果這會推遲發佈時間表也沒關係。 我們知道我們無法想像未來所有可能的場景。因此,我們需要有一個非常緊密的回饋循環 、嚴格的測試、每一步都仔細考慮、世界一流的安全性以及安全性和功能的和諧。我們將 繼續針對不同時間尺度進行安全研究。我們也繼續與政府和許多利益相關者在安全方面進 行合作。 對於如何走上通用人工智慧之路,目前還沒有經過驗證的劇本。我們認為實證理解可以幫 助指引前進的方向。我們相信,既能帶來巨大的好處,又能努力減輕嚴重的風險;我們非 常重視我們在這裡的角色,並仔細權衡對我們行動的回饋。 " 不過外界不相信奧特曼不知道這條款,因為他的前公司YCR HARC解散時也有類似的協議。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 219.87.176.211 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1716167189.A.994.html

05/20 09:18, 6月前 , 1F
干窩P4
05/20 09:18, 1F
※ 編輯: jackliao1990 (219.87.176.211 臺灣), 05/20/2024 09:27:22

05/20 13:49, 6月前 , 2F
詐騙集團+openai 事半功倍!!
05/20 13:49, 2F
文章代碼(AID): #1cIg8LcK (Tech_Job)
文章代碼(AID): #1cIg8LcK (Tech_Job)