[新聞] ChatGPT公益私利之定位:科技教父的世紀
ChatGPT公益私利之定位:科技教父的世紀官司 --Musk強勢回歸告Altman與OpenAI (系列
二 變調的AGI -- 從開放到封閉 v. 從公益到營利)
原文網址:
https://bit.ly/3IAp64o
原文:
2024年閏二月的最後一天,電動車教父Elon Musk,向北加州舊金山地院,控告ChatGPT之
父Samuel Altman(另外還有OpenAI共同創辦人Gregory Brockman、OpenAI及其8家關係企
業)違法,對於這個教父級別的世紀法律大戰,本刊系列一已介紹其原委,本篇接著探討
該案之核心爭議。
AGI迭代發展沿革與OpenAI從開放到封閉之轉折
因為之前Google已率先創建一個名為轉換器 (Transformer) 的演算法,解決深度學習在
理解長文本序列時所面臨的許多問題,該演算法是「大型語言模型」(Large Language
Model) 的一個範例,能將文字從一種語言翻譯成另一種語言,其工作原理是在來源語言
中形成單詞間的建立聯結,並將這些聯結映射到目標語言。
OpenAI的人員當然也跟進研究此項發明,透過使用Google Transformer架構的前半部分,
很快得出一個令人驚嘆的結果:深度神經網路可以在大型文本語料庫上進行預訓練,並用
於生成新文本。2018年1月OpenAI發布這個名為「生成式預訓練轉換器」(GPT:
Generative Pre-Trained Transformer) 的原始碼和訓練模型,並附有一份描述該模型及
功能的詳細論文。
2019年OpenAI推出第二代模型GPT-2,也附有一篇詳細的論文描述該模型,指出與以往需
要針對特定任務進行訓練的模型不同,「當大型語言模型在足夠大且多樣化的數據集上進
行訓練時,它能在許多領域和數據集上表現良好」。這些模型被證明與先前的AI系統有很
大不同,其無需訓練系統執行特定任務,而是只需簡單地用自然語言來「要求」(即詢問
)系統執行一項新任務。儘管GPT-2可針對不當使用進行微調(fine-tuned),而且供人檢
測GPT生成文本具有挑戰性,但OpenAI仍願意公布GPT-2的開放版本,希望對未來強大模型
的開發者有所幫助 [1]。
2020年OpenAI宣布其模型的第三個版本:GPT-3,使用1750億個參數,是之前任何非稀疏
語言模型(non-sparse language model)的10倍。同樣的,OpenAI也發表一篇詳細的論文
,描述GPT-3內部結構和訓練數據。2022年Google的研究人員借鑒這些結果,展示一個名
為「思維鏈提示」(chain-of-thought prompting)的小改變,可以使「大型語言模型執行
複雜的推理」,顯示OpenAI的GPT-3,可以像人類一樣,以按部就班方式對全新問題進行
推理。接著,GPT-3.5亦即ChatGPT於2022年11月30日發布。
2023年3月中,OpenAI再發布迄今為止,最強大新一代GPT-4的語言模型,具有優於一般人
之推理能力。根據OpenAI自己的客觀衡量標準,GPT-4在各種任務上已具備超越人類的智
慧,研究界很重視這一發展 [2]。將GPT-4與基於GPT-3系統的性能進行比較,發現「
GPT-3的輸出不如GPT-4」。Musk指出,連微軟自家的研究人員也承認GPT-4「達到某種通
用智慧的形式」,並且「考慮到GPT-4功能的廣泛和深度,它可以被合理地視為AGI系統的
早期版本(雖仍然不完整)」。換言之,GPT-4已達到AGI的門檻。
由以上可知,OpenAI最初的研究是公開進行的,提供對設計、模型和程式碼的免費和公共
造訪權限。OpenAI研究人員開發出的演算法,可以在沒有任何明確訓練的情況下,執行許
多自然語言任務,這些發表的論文證明,對未來大模型的開發者極有助益,這使得整個社
群如雨後春筍般湧現,以增強和擴展由OpenAI發布的模型,並逐漸蔓延擴展到開源、基層
開發組織及商業實體,使社群能完整借鑒,自行創建類似的模型。但特別的是,這次
OpenAI對於GPT-4不願再發表任何相關之論文。
OpenAI授權予微軟之範疇
Altman在2019年成為OpenAI的執行長,隨著已邁入營利行列,2020年9月下旬OpenAI與微
軟簽署一份協議,專屬授權 (exclusively licensing) 給微軟使用其生成式預訓練轉換
器(GPT-3)語言模型。然而重要的是,Musk認為,微軟取得的授權,僅適用於OpenAI若干
關於「AGI之前」(pre-AGI) 的技術,而非「AGI」技術,因此微軟並未獲得任何AGI的權
利。
Musk指控,為了與《創始協議》宗旨一致,OpenAI的網站中將AGI描述為,「在最具經濟
價值的工作中,表現優於人類的一個高度自治系統」,「被排除在與微軟的IP授權和其他
商業條款之外,這些微軟的授權僅適用於pre-AGI技術」。至於OpenAI何時能達到實現AGI
之里程碑 (when attained AGI),則將取決於OpenAI董事會,而不是微軟。
Open Source變調成Close Source
Musk指控,在GPT-4達到AGI的門檻後,延續《創始協議》宗旨,OpenAI開發目的本應是為
了造福全人類,而不是為了任何以營利為目的之公司或個人賺取利益,但透過對微軟之專
屬授權,Altman此時已徹底地背離《創始協議》使命,違反其對公眾提供技術和知識的初
衷與向來做法,使GPT-4變成是一個完全封閉的模型,對GPT-4的內部設計完全保密,沒有
任何程式碼被公開,也沒有發表任何科學論文描述其內部設計,有的僅是發布吹噓宣傳性
能的新聞稿,GPT-4的內部細節除了OpenAI和微軟沒有其他人知道,而這種保密主要是出
於商業而非安全考量。
尤其是,OpenAI的整個技術發展現在都處於保密狀態,公眾只能透過傳言和零星的通信片
段,來了解接下來會發布什麼內容。雖然,GPT-4原來宗旨是想造福公眾,但GPT-4現在實
際上已成為微軟的專有演算法,被其整合到商用的Office軟體套件中。因此,GPT-4已變
成「開放AI」的反面詞,而且是出於商業上的原因而封閉:如果OpenAI按協議要求將技術
免費提供公眾,微軟是不可能透過出售GPT-4而大蒙其利。
OpenAI爆發經營高層政變
ChatGPT當紅以來,一般人看到的是,Open AI和微軟大蒙其利價值翻倍,使得Altman風生
水起成為全球AI新科技的領頭羊,而讓人詫異的是,正當他飛黃騰達不可一世的高光時刻
,2023年11月17日,OpenAI董事會竟然決議將Altman解聘,然後在部落格中宣布此一政變
消息,並謂該去職是董事會經「深思熟慮」之審查程序後得出的結論,這讓所有的人跌破
眼鏡!其理由是,Altman在與董事會的溝通中未能一貫地坦誠(not consistently
candid),妨礙董事會履行職責的能力,因而董事會不再相信他有繼續領導OpenAI的能力
,故被解雇。
據路透社報導稱,OpenAI目前正開發一種名為Q*模型(Q star) 的秘密演算法,雖然尚不
清楚具體內容,但將更貼近對AGI的訴求。OpenAI員工已警告Q*的潛在威力,似乎Q*可能
成為OpenAI開發更引人注目的AGI範例。因此Musk認為,Altman被解雇的部分原因,係由
於OpenAI在實現AGI方面已取得突破,導致OpenAI董事會成員和高階主管之間,對安全問
題以及OpenAI下一代Q*構成之潛在威脅,存有很大的分歧,再者,AGI必須係為廣大公眾
的利益而提供,亦已超出OpenAI與微軟的授權範圍,這些分歧點才是政變主因。
當微軟執行長Satya Nadella得知Altman被解雇時很生氣,作為OpenAI的營利部門持股49%
的股東,他認為解雇前應諮詢微軟的意見。Nadella遂邀請Altman和Brockman,來領導一
個新的微軟AI研究實驗室,不受OpenAI人道主義使命的限制,但另一方面,微軟也使出渾
身解數重新安排Altman回任。接下來幾天,發生一連串戲劇般的事件,Altman和Brockman
與微軟合作,利用微軟對OpenAI的巨大影響力,使大多數OpenAI的董事會成員辭職,三天
後Altman在2023年11月21日恢復擔任OpenAI的執行長。
Altman罷黜事件中微軟之角色
在罷黜過程中,微軟相信透過其在OpenAI營利部門掌握的所有權,如果該公司停業,它完
全可隔離OpenAI的研究。Altman被解雇後不久的一次訪談中,Nadella表示:「我們對自
己的能力極有信心,我們擁有所有的智財權和一切必要的能力。如果OpenAI明天消失,我
們的客戶不需為此擔心,因為我們擁有繼續創新的所有權利。不僅可提供產品,還可以與
合夥同伴繼續合作一直在做的事情。我們擁有人才、運算資源、數據,我們擁有一切。」
但Musk指控,其實微軟對OpenAI及其董事會擁有相當大的強制影響力,在Altman被解雇期
間,執行長Nadella對微軟與OpenAI的關係發示:「我們介入其中。我們在他們的下面、
上面、周圍。我們進行核心優化,建構工具、基礎設施。這就是為何很多行業分析師都說
,這真的是微軟和OpenAI間的聯合項目。」不僅如此,在解雇期間,微軟僅支付其對
OpenAI承諾之100億美元投資中的一小部分,但這卻使得微軟對這家「獨立」非營利性之
董事會,顯見其擁有重大的影響力。另外,如果微軟如禁止OpenAI使用其所依賴的微軟雲
端運算系統,公司將無法運作。基於來自微軟對董事會的施壓,Altman旋即恢復OpenAI的
執行長、Brockman重新擔任總裁。
Altman被罷黜前舊的董事會
在OpenAI原來的董事會中,包含多位具有深厚AI政策經驗的學者和公共政策專家,其中大
多數成員在公司中沒有利害關係。這種選擇是經過深思熟慮的,因為具有豐富的公共服務
經歷,且不牽涉財務利益的董事成員,可確保董事會將非營利機構的主要受益者 -- 人
類 -- 置於經濟利益之前。而制定這種保障措施,是為了進一步推動OpenAI的非營利使命
,和基於《創始協議》在董事會中設立:安全創造有益於人類福祉的AGI,而不是為了營
利性公司的金錢利益。
在Altman被解雇後的幾天裡,OpenAI的董事會面臨來自律師和包括微軟在內主要股東的施
壓,要求重新任命Altman。在恢復Altman的職位的運作中,OpenAI的律師曾告訴其中的董
事,如果OpenAI因Altman被解僱而失敗,董事可能會面臨違反對投資者受託責任
(fiduciary duties) 的指控,但實際上OpenAI的董事會,從未對投資者負有受託責任
[3],因此律師的說法只是一種恐嚇,而維持Altman的解雇,實際上將有助於推動公司促
進人類安全而非追求利益的使命,然而,所有這一切都無法阻擋微軟推動Altman之復職。
Altman搬師回朝後新的董事會
Altman重返職位後,經過大地震的洗禮,當然要鞏固政權避免再中劍落馬,因此大幅換血
親自挑選新的董事會,並獲得微軟首肯;但該新的董事會的成員組成,是擁有以利潤為中
心的企業或政治領域上的經驗,而不是在AI倫理和治理方面見長。
在設計上新成員缺乏類似的技術專業、或具備AI治理方面的實質背景,因此Musk指控,不
如前任董事會。隨著Altman的復職和重組,OpenAI的公司結構,原本被設計為非營利部門
、營利部門、董事會和執行長之間所建立的一個制衡體系,以確保其非營利性質之使命得
以落實,已在一夕之間崩塌。OpenAI曾經精心打造的非營利結構,被一位純粹以利益為導
向的執行長,和一個在AGI和AI公共政策方面技術專業能力較低的董事會所取代。
Musk還指控,新的成員因缺乏實質的AI專業知識,當然没有能力獨立決定OpenAI何時達到
AGI,也無法判斷OpenAI開發的演算法,是否超出微軟取得的授權範圍。甚者,董事會竟
然還專門為微軟保留一個觀察員席位,以便就近監管這隻表面上是非營利性質的賺錢金雞
母。公司原本的設計是,為全人類廣泛福祉開發AGI之非營利使命,從而使其不致落入權
力過度集中的大型營利公司手中,然而很明顯的,經過這次改組,現OpenAI已放棄此種使
命。
OpenAI董事會就AGI技術居關鍵地位
由於OpenAI前任董事會之大多數成員,已被迫在2023年11月22日辭職,其繼任者是由
Altman和微軟親自挑選的。但OpenAI董事會在AI技術專長、中立性和對OpenAI非營利性使
命的承諾,對公司至關重要,尤其是對於與微軟的授權協議,OpenAI是否已達到AGI將由
董事會決定。這意味著,董事會被賦予的任務是,決定OpenAI最強大和先進的技術,是否
被排除在微軟的專屬授權範圍之外。
Musk認為,考慮到不對公眾開放讓微軟擁有巨大的經濟利益,這次OpenAI新成立、存在利
益衝突且順從的董事會,在充滿國王人馬的情況下,投票表決部隊將有充分的理由,延遲
認定OpenAI已實現AGI的結論(因一旦認定實現AGI,就非屬於可授權予微軟之標的)。導
致OpenAI實現AGI的時刻,將永遠是「明天」之後遙不可及的未來式,以致微軟將不斷被
授權使用OpenAI的最新技術,而使公眾被排除在外,而這當然與《創始協議》精神相悖。
Musk指控被告違反《創始協議》
Musk指控,2023年的事件已公然違反《創始協議》,被告基本上已將該協議推翻。諷刺的
是直到今天,OpenAI的網站仍然宣稱,其章程是確保AGI「造福全人類」。然而實際上完
全與開源背道而馳,OpenAI早已變成全球最大科技公司微軟的「閉源之事實上的附隨組織
」(closed-source de facto subsidiary)。
在新的董事會領導下,它不是只在開發AGI,實際上更是在完善AGI以實現微軟之貨幣化,
其已將GPT-4變成閉源 (closed-source) 的技術,主要僅是專為了服務微軟的專有商業利
益 [4],不圖GPT-4用於人類福祉,反而將其專有技術當作為世界上最大的公司實現利益
最大化,被告自已違反《創始協議》。
對於當初所謂的「謹慎審查過程」到底揭示了什麼,才導致Altman被解雇,公眾仍然一無
所知。然而,對Musk和大眾來說有一點是明確的:OpenAI為了追求利益,已放棄「不可撤
銷的」非營利性使命,許多意見領袖和知識分子評論,OpenAI已成為「封閉式的營利性AI
」[5]。因此Musk認為,提起本案是為了迫使OpenAI遵守《創始協議》,回歸其為造福人
類而開發AGI的使命,而不能為被告個人和世界上最大的科技公司牟私人利益。
Altman強勢回歸後的OpenAI
一家非營利性消費者權益倡議組織Public Citizen的總裁,2024年稍早寫了一封公開信給
加州總司法檢察長,就OpenAI的營利子公司,是否對非營利組織的OpenAI施加不當管控,
或者原來非營利目的組織,是否在Altman和微軟的領導下轉向營利,表達了擔憂。該函建
議,如果非營利性組織放棄其原始的使命,則應將其解散,並將所得款項捐給另一慈善事
業。
《WIRED》雜誌於2024年1月進行一項調查發現,OpenAI最近關閉公眾對先前可自由查閱「
關鍵文件」的造訪權。根據OpenAI最初對透明度的承諾,OpenAI自成立以來就表明對國稅
局 (IRS) 文件,任何公眾都可以查看其治理文件、財務報表和利益衝突規則的副本。但
董事會改組後,當《WIRED》要求提供這些文件時,OpenAI卻表示已更改政策。因此,儘
管OpenAI長期以來一直強調其透明度的承諾,但公眾已無法獲得有關2023年11月事件的資
訊。
獲得查閱OpenAI文件的權限,可讓大眾了解該公司是否為迎合微軟和其他股東,改變原先
規劃的治理結構。目前至少看出,已做出為迎合微軟在董事會的席次改變 [6]。此外,查
閱OpenAI是否遵循利益衝突政策非常重要,可以揭示董事會是否有能力控制Altman利用
OpenAI來謀求經濟利益,而迄今為止,這些利益衝突似乎一直未受到檢驗。OpenAI雖然曾
經自許是以安全、負責理念,開發基於與大眾開放交流之AGI的先驅,但曾幾何時現在卻
關閉大門,並將營利性子公司的最大投資者帶入董事會,然而原先董事會只對人類負有唯
一受託責任,如任令其繼續秘密朝利益中心的邁進,將可能對人類產生災難性的影響。
Musk與Altman和Brockman共同創立並資助OpenAI,靠著《創始協議》以確保AGI將造福全
人類,而不是使其成為營利性公司。但隨著2023年事件的發展,Musk對OpenAI的貢獻已被
扭曲為,讓Altman和世界上最大的營利公司謀利,這是對《創始協議》的嚴重背叛,並扭
曲原來OpenAI的神聖使命 [7]。
註解:
[1] 這次發布同時還附有一份,由OpenAI科學家以及獨立的社會和技術科學家合著的詳
細論文,解釋相對於維持模型的封閉保密,公開發布模型所帶來的一些好處。
[2] 在一篇名為「人工通用智能的火花:GPT-4的早期實驗」的研究分析中,微軟的研究
人員指出,「GPT-4可以解決橫跨數學、編碼、視覺、醫學、法律、心理學等多個領域創
新且困難的任務,而無需任何特殊的提示。而且,在所有這些任務中,GPT-4 的表現都非
常驚人地接近人類水平,並且遠遠超過先前的模型,例如以GPT-3.5基礎之ChatGPT。」
[3] 事實上,營利部門的所有投資者先前都被告知,公司對其公共利益使命的責任,優先
於對投資者獲利的責任,而且OpenAI的網站也清楚表明,公司只對「人類」負有受託責任
。
[4] 事實上,當2023年11月上演的戲劇性事件時,微軟的首席執行官吹噓說,即使OpenAI
明天消失也沒關係….,我們擁有所有的智財權和所有的能力。…. 我們擁有人才,擁有
運算,擁有數據,擁有一切…. 我們在它們之下,在它們之上,在它們周圍。
[5] 2023年11月29日,MIT的經濟學家在《洛杉磯時報》上發表評論,其對OpenAI以利益
為導向的新方針表示擔憂。他們說,「破壞和不受控制的成長,已經變成科技行業的信仰
,而Altman一直是其最忠誠的大祭司之一」。
[6] 據報導,現在Altman正與中東投資者洽談,擬籌集高達7兆美元的資金,開發AI晶片
製造工廠建構之全球網絡。如果微軟提供的100億美元,足以讓它在董事會中佔有一席之
地,那麼不難想像,這些新的潛在投資將帶來多大的影響。特別是當一個潛在投資者是阿
拉伯聯合大公國的國家安全顧問,而由於阿拉伯與中國的關係,美國官員將感到擔憂。此
外,Altman還討論了將該大公國,打造成測試AI技術的「監理沙盒」(regulatory
sandbox)的可能性。
[7] 試想,向一個聲稱以保護亞馬遜雨林為使命的非營利組織捐款,但隨後該組織卻成立
一家營利性的伐木公司,反過來利用該捐款來清理亞馬遜雨林,OpenAI就是這樣的操作。
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 203.145.192.245 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Patent/M.1710307735.A.48D.html
推
03/13 23:01,
9月前
, 1F
03/13 23:01, 1F
討論串 (同標題文章)
完整討論串 (本文為第 1 之 2 篇):
Patent 近期熱門文章
10
20
PTT職涯區 即時熱門文章