劃重點
01AI領(lǐng)頭羊OpenAI解散其“AGI籌備”團隊,團隊主管Miles Brundage將離職。
02Brundage表示,離職的主要原因是機會成本變得太高,希望在外部進行研究會更具影響力。
03原AGI準備團隊的成員將被重新分配到其他團隊,OpenAI發(fā)言人表示對其離職表示深表感謝。
04此外,OpenAI董事會可能計劃將公司重組為營利性企業(yè),高層動蕩持續(xù)。
05由于對OpenAI的董事會構(gòu)成感到滿意,微軟于7月放棄了其在OpenAI董事會的觀察席位。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
媒體報道,AI領(lǐng)頭羊OpenAI正在解散其“AGI(通用人工智能)籌備”團隊,團隊主管將離職,希望在外部繼續(xù)該領(lǐng)域的研究。
OpenAI的AGI籌備團隊負責建議公司如何處理越來越強大的AI技術(shù),以及當今世界是否準備好管理這些技術(shù)。CNBC報道,OpenAI的AGI籌備團隊負責人Miles Brundage在周三通過Substack發(fā)布的帖子中宣布了這一消息,并表示他將離職。
Brundage表示,他離職的主要原因是機會成本變得太高,他認為在外部進行研究會更具影響力,并且他希望減少偏見。他還表示,OpenAI及世界在AGI籌備方面“尚未準備好”。而Brundage計劃創(chuàng)建自己的非營利組織,或者加入現(xiàn)有的組織,專注于AI政策研究和倡導。他補充說,
“AI不太可能在沒有共同努力確保其安全和有益的情況下達到最佳狀態(tài)。”
根據(jù)帖子內(nèi)容,原AGI準備團隊的成員將被重新分配到其他團隊。
OpenAI發(fā)言人向媒體表示:
“我們完全支持Brundage決定在業(yè)界之外繼續(xù)他的政策研究,并對他所做的貢獻深表感謝。他全身心投入AI政策獨立研究的計劃,讓他有機會在更大范圍內(nèi)產(chǎn)生影響,我們期待從他的工作中學習并看到其影響。在他的新角色中,我們相信他將繼續(xù)提升行業(yè)和政府制定政策的質(zhì)量。”
今年5月,OpenAI決定解散其剛剛成立一年的“超級對齊”團隊(Superalignment team),該團隊專注于AI的長期風險。
正值公司改組、高層動蕩之際
AGI準備團隊的解散消息也正值OpenAI董事會可能計劃將公司重組為營利性企業(yè)之際。上個月,包括該公司首席技術(shù)官Mira Murati、研究主管Bob McGrew和研究副總裁Barret Zoph在內(nèi)的三位高管宣布同日離職。
今年10月初,OpenAI完成了一輪估值1570億美元的融資,其中包括從多家投資公司和大科技公司籌集的66億美元。公司還獲得了一筆40億美元的循環(huán)信貸額度,使其總流動資金超過100億美元。公司預計今年的收入將達到37億美元,但虧損約為50億美元。
今年9月,OpenAI宣布,該公司在5月份成立的“安全與安保委員會”(Safety and Security Committee)將成為一個獨立的董事會監(jiān)督委員會。該委員會最近結(jié)束了為期90天的審查,評估了OpenAI的流程和保障措施,并向董事會提出了建議,這些建議還在公司博客中公開發(fā)布。
AI安全問題的處理遭質(zhì)疑
目前,有關(guān)OpenAI安全問題以及相關(guān)爭議的關(guān)注度越來越高。今年夏天,OpenAI、谷歌、微軟、Meta等公司在生成式AI領(lǐng)域激烈競爭,目前預計這一市場在未來十年內(nèi)將產(chǎn)生超過1萬億美元的收入。
今年7月,OpenAI將其頂級安全高管之一Aleksander Madry調(diào)整崗位,讓他專注于AI推理的工作。Madry曾是OpenAI的“AI風險預防小組”籌備團隊負責人,該團隊的任務是“跟蹤、評估、預測并幫助防范與前沿AI模型相關(guān)的災難性風險”。
而在6月,一名民主黨聯(lián)邦參議員致信OpenAI首席執(zhí)行官Sam Altman發(fā)送信函,詢問OpenAI如何應對新出現(xiàn)的安全問題。信中提到:
“我們希望了解更多關(guān)于OpenAI為履行其在安全方面的公開承諾所采取的步驟,公司如何在內(nèi)部評估其對這些承諾的進展情況,以及公司如何識別和減輕網(wǎng)絡安全威脅的額外信息。”
微軟于7月放棄了其在OpenAI董事會的觀察席位,并對媒體表示,由于對OpenAI的董事會構(gòu)成感到滿意,微軟決定退位。此前,OpenAI董事會經(jīng)歷了一次重組,這次變動導致Altman短暫被罷免,同時也威脅到了微軟對OpenAI的大量投資。
但在今年6月,一群現(xiàn)任和前任OpenAI員工發(fā)布了一封公開信,表達了對人工智能行業(yè)快速發(fā)展的擔憂,特別是在缺乏有效監(jiān)督和沒有“吹哨人”保護機制的情況下。信中寫道:
“AI公司有強大的財務動機來避免有效的監(jiān)督,我們不相信為此更改的公司治理結(jié)構(gòu)足以改變現(xiàn)狀。”
而在信件發(fā)布幾天后,一位知情人士向媒體證實,美國聯(lián)邦貿(mào)易委員會(FTC)和司法部正準備對OpenAI、微軟和英偉達展開反壟斷調(diào)查,重點關(guān)注這些公司的行為。
內(nèi)部人士批評:過于追求產(chǎn)品 對AI風險披露不足
這些員工在6月的信件中還寫道,AI公司擁有大量非公開的信息,了解其技術(shù)的能力、已采取的安全措施的程度,以及這些技術(shù)在不同層面帶來的潛在風險。
“我們也意識到這些技術(shù)帶來的嚴重風險,但AI公司目前僅對政府有微弱的分享義務,幾乎沒有義務與公眾分享這些信息。我們不認為AI公司能夠自愿分享這些信息。”
OpenAI于去年成立的“超級對齊”團隊,專注于“科學和技術(shù)突破,以引導和控制比人類更智能的AI系統(tǒng)”。該團隊在5月份被解散,領(lǐng)導人Ilya Sutskever和Jan Leike宣布離職。Leike在X上發(fā)帖稱,OpenAI的“安全文化和流程,已經(jīng)讓位于光鮮的產(chǎn)品”。
Altman當時在X上表示,看到Leike離開感到難過,并承認OpenAI還有很多工作要做。不久之后,OpenAI聯(lián)合創(chuàng)始人Greg Brockman在X上發(fā)表了一份聲明,強調(diào)公司已經(jīng)“提高了對AGI風險和機遇的認識,以便世界能夠更好地為此做好準備”。
Leike當時在X上寫道:“我加入OpenAI,是因為我認為OpenAI是世界上進行這類研究的最佳場所。”然而,他表示自己與公司領(lǐng)導層在核心優(yōu)先事項上存在分歧,最終不得不分道揚鑣。Leike認為,公司應該更多地關(guān)注安全、監(jiān)控、風險應對工作以及對社會的影響。
他表示:
“構(gòu)建比人類更聰明的機器本質(zhì)上是一項危險的工作,OpenAI正在為全人類肩負巨大的責任。但在過去幾年中,安全文化和流程已經(jīng)讓位于光鮮的產(chǎn)品。”