每日經濟新聞 2023-11-20 20:10:29
◎ 為何分歧在此時發生,而不是在訓練 GPT-3 或 GPT-4 時呢?有報道分析稱,這很可能是當前的AI水平已經到達一個臨界點。
每經記者|文巧 每經編輯|蘭素英
11月20日,微軟宣布,OpenAI創始人山姆·阿爾特曼(Sam Altman)和格雷格·布羅克曼(Greg Brockman)將加入微軟,領導新的高級AI研究團隊。
另一邊,OpenAI聯合創始人伊利亞·蘇茨克維(Ilya Sutskever)宣布,亞馬遜旗下視頻流媒體網站Twitch的聯合創始人埃米特·希爾 (Emmett Shear) 將接任該公司的臨時首席執行官。短短一個周末,OpenAI的管理層幾經更迭,如今這場驚爆全球的“內斗”似乎塵埃落定了。
據此前報道,蘇茨克維是此次巨變的靈魂人物,阿爾特曼被罷免,正是由于其與在蘇茨克維在AI安全、技術發展速度以及公司商業化問題上存在分歧。
《每日經濟新聞》記者發現,早在今年6月,阿爾特曼和蘇茨克維在特拉維夫大學同臺對談時,面臨AI風險的提問,兩人的回答就有著微妙的不同。蘇茨克維承認并強調這些風險,并表示自己對于風險的不確定性。盡管阿爾特曼也同意AI失控的風險且需要不同的社會經濟契約來制衡,但他卻更傾向描述AI的樂觀一面。
外媒分析認為,兩人的沖突不能簡單理解為“AI加速論者”和“AI末日論者”之間的爭論,他們分歧的根源在于如何理解自己正在創造的東西,以及如何達成AGI(通用AI)的方式。而這種沖突在此刻爆發,這很可能是當前的AI水平已經到達一個臨界點。
圖片來源:視覺中國-VCG111424718601
據彭博社此前報道,OpenAI的聯合創始人和首席科學家蘇茨克維是此次巨變的靈魂人物,阿爾特曼被罷免,正是由于其與在蘇茨克維在AI安全、技術發展速度以及公司商業化問題上存在分歧。
其中,AI安全是最重要的關鍵詞。蘇茨克維不止一次提及AI安全的議題,他非常擔心AI對社會造成的負面影響,也非??粗?ldquo;AI對齊”(用人類的反饋來訓練模型,讓其遵守人類的價值觀)的重要性。
這種觀念,或許在蘇茨克維早期的學術生涯中就已埋下種子。
1985年,蘇茨克維出生在俄羅斯西北部的諾夫哥羅德。從5歲到16歲,他一直居住在以色列耶路撒冷。2002年,蘇茨克維全家移民至加拿大多倫多。
蘇茨克維師從聞名世界的AI科學家杰弗里·辛頓,后者是圖靈獎三大巨頭之一,被業界稱作“AI教父”。2012年,蘇茨克維參與發明了辛頓的AlexNet神經網絡,這是大模型的重要骨髓,徹底打開了全球深度學習的熱潮。
2013年,28歲的蘇茨克維與杰弗里·辛頓一同加入谷歌的AI部門,兩人被谷歌評價為“不可多得之人”。他也是Google AlphaGo論文的作者之一,用自己的力量團結到早期骨干,一直負責最前沿的開發。
在OpenAI還是非營利組織的階段,馬斯克與蘇茨克維較阿爾特曼甚至更為密切。2015年,馬斯克與阿爾特曼等人合作,建立了AI實驗室,并從谷歌挖來了蘇茨克維。馬斯克將招來蘇茨克維描述為OpenAI成功的關鍵。
值得注意的是,辛頓發表的“超級AI”將毀滅人類的觀點在前幾個月曾掀起軒然大波,他之后也因此從谷歌辭職;而馬斯克也一直認為AI可能會對人類本身產生威脅,他一直堅持開源AI代碼。早在2018年,馬斯克就因為對AI安全的擔憂和在商業化上的不一致,與OpenAI分道揚鑣。
可以說,在蘇茨克維的學術和職業生涯中,與其有緊密聯系的人都保持著對超級AI的警惕態度,辛頓和馬斯克的觀念很可能在某種程度上感染了蘇茨克維對于AI的認知。
11月7日,在OpenAI的首次開發者大會上,阿爾特曼宣布推出的簡易定制GPT工具(GPTs),被解讀為其欲打造像蘋果那樣宏偉的商業生態。阿爾特曼被罷免與這一重大發布相隔如此之近,GPTs的發布也被廣泛解讀為人事巨震的導火索。
對于阿爾特曼對AI的態度,在接受紐約時報采訪時,他認為自己在AI辯論中屬于中間派。他說,“我相信這將是人類有史以來發明的最重要、最有益的技術。我也相信,如果我們不小心對待它,它可能會帶來災難性的后果,因此我們必須小心駕馭它。”
盡管阿爾特曼一直呼吁監管,從OpenAI自去年11月推出ChatGPT的一系列積極動作來看, 他堅持的是推動商業生態,讓GPT的能力快速擴散。
但蘇茨克維的立場似乎有些不同,他更看重的是研究如何阻止AGI的失控。今年7月,蘇茨克維與OpenAI研究員Jan Leike組建了一支新團隊,致力于研究防止AI系統異常的技術解決方案,還表示將投入五分之一的計算資源來解決AGI的威脅。
《每日經濟新聞》記者注意到,今年6月,阿爾特曼和蘇茨克維在特拉維夫大學同臺對談,當主持人提到AI存在的三個風險:工作崗位受到影響、黑客獲得超級智能和系統失控時,兩人的回答有著微妙的不同。
圖片來源:Youtube
蘇茨克維承認這些風險,并表示,“盡管(AI)會創造新的就業機會,但經濟的不確定性將持續很長時間。我不確定是否會出現這種情況。這項技術可以用于驚人的應用,可以用來治愈疾病,但也可能創造出比之前任何東西更糟糕的疾病。我們需要適當的結構來控制這項技術的使用。”
盡管阿爾特曼也同意AI失控的風險且需要不同的社會經濟契約來制衡,但他更傾向描述AI的樂觀一面:“在經濟方面,我發現很難預測未來的發展……短期來看,情況看起來不錯,我們將看到生產力顯著增長;長遠來看,我認為這些系統將處理越來越復雜的任務和工作類別。”
近幾個月來,有關AI風險的激烈爭論屢見不鮮,圖靈三巨頭辛頓、Yoshua Bengio和Yann LeCun在社交平臺上已展開多輪對決,媒體將這稱為“AI加速論者”和“AI毀滅論者”之間的爭論。
不過,另一種分析認為,阿爾特曼和蘇茨克維的沖突不能簡單理解為“AI加速論者”和“AI末日論者”之間的爭論。外媒The Algorithmic Bridge稱,兩人并不像末日論者和加速論者那樣對立,相反,他們實際上非常相似——都相信未來AGI給人類帶來的好處,這也是他們一同創立OpenAI的基礎。
報道認為,分歧根源在于如何理解自己正在創造的東西,以及如何達成AGI的方式。譬如,阿爾特曼認為通過迭代部署產品、籌集資金和建造更強大的計算機可以更好地實現AGI;但蘇茨克維認為通過對“AI對齊”等方面進行更深入的研發,并投入更少的資源來制造面向消費者的AI產品,可以更好地實現AGI。
從蘇茨克維的角度來看,他想要OpenAI與創立公司初期的使命——創造為人類謀福祉的AGI——保持一致,這無可厚非。
為何這種分歧現在發生,而不是在他們訓練 GPT-3 或 GPT-4 時發生呢?并非差異不存在,而是因為AI能力水平的影響不足以采取行動。報道分析稱,這很可能是當前的AI水平已經到達一個臨界點。
11月16日,在APEC峰會上,阿爾特曼說道,他在OpenAI的工作經歷中目睹了知識界限四次被推進,其中最近一次發生在幾周前。在今年10月,蘇茨維爾在接受《麻省理工科技評論》采訪時認為,ChatGPT可能是有意識的。
The Algorithmic Bridge認為,這背后的隱藏含義是——OpenAI董事會認為已接近達成AGI,這是沖突爆發的根源。
阿爾特曼在近期承認,OpenAI正在開發GPT-5,終極目標是相當于人腦的超級AI。目前關于GPT5并未有最新消息,但外界猜測,GPT5可能會自我修改程序和數據,但“不愛人類”。紐約大學AI教授Gary Marcus就表示,“他們一定看到了山姆所做的事情的危險性。”
圖片來源:X平臺
紐約時報稱,阿爾特曼的離開大概率會助長AI行業的文化戰爭,也就是,認為應允許AI更快發展的陣營和認為應放慢發展速度以防止潛在災難性傷害的陣營之間的戰爭。到底誰是對的?或許只有時間才能證明。
封面圖片來源:視覺中國-VCG111424718601
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP