IT之家 7 月 24 日消息,OpenAI 首席執(zhí)行官山姆·阿爾特曼(Sam Altman)本周二在 X 平臺發(fā)布推文,表示在新一輪內(nèi)部架構(gòu)重組中,負(fù)責(zé) AI 安全的主管亞歷山大·馬德里(Aleksander Madry)調(diào)崗,并將其重新分配到一個專注于人工智能推理的崗位。
阿爾特曼在推文中表示:“Aleksander 正在從事一個新的、非常重要的研究項目”。
阿爾特曼補充表示,OpenAI 高管華金·基諾內(nèi)羅·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)將在此期間接管 Preparedness 團隊。
OpenAI安全團隊簡介
IT之家注:OpenAI 公司信任和安全部門主管戴夫·威爾納(Dave Willner)于 2023 年 7 月離職之后,公司于同年 10 月將該部門拆分為 3 個團隊:
安全系統(tǒng)(Safety Systems)團隊:專注于高級人工智能模型和人工通用智能的安全部署,專注于減少對當(dāng)前模型和產(chǎn)品(如 ChatGPT)的濫用。
超級對齊(Superalignment)團隊:為該公司(希望)在更遙遠(yuǎn)的未來擁有的超級智能模型的安全性奠定基礎(chǔ)
Preparedness 團隊:負(fù)責(zé)繪制前沿模型的新風(fēng)險,并對前沿模型進(jìn)行安全評估,評估和減輕與人工智能相關(guān)的“災(zāi)難性風(fēng)險”。
Aleksander簡介
該團隊此前由 Aleksander 領(lǐng)導(dǎo),幫助跟蹤、評估、預(yù)測和防范由人工智能模型帶來的災(zāi)難性風(fēng)險,負(fù)責(zé)繪制前沿模型的新風(fēng)險,并對前沿模型進(jìn)行安全評估。
圖源:Aleksander MadryLinkedIn
Aleksander 還是麻省理工學(xué)院可部署機器學(xué)習(xí)中心(Center for Deployable Machine Learning)的主任和麻省理工學(xué)院人工智能政策論壇(MIT AI Policy Forum)的教員聯(lián)合負(fù)責(zé)人。
OpenAI 官方表示 Aleksander 在新崗位上仍將從事核心的人工智能安全工作。