展會信息港展會大全

OpenAI 調(diào)崗安全高管 Aleksander Madry,新職位專注于 AI 推理
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-07-24 15:47:58   瀏覽:4665次  

導(dǎo)讀:IT之家 7 月 24 日消息,OpenAI 首席執(zhí)行官山姆阿爾特曼(Sam Altman)本周二在 X 平臺發(fā)布推文,表示在新一輪內(nèi)部架構(gòu)重組中,負(fù)責(zé) AI 安全的主管亞歷山大馬德里(Aleksander Madry)調(diào)崗,并將其重新分配到一個專注于人工智能推理的崗位。 阿爾特曼在推文...

IT之家 7 月 24 日消息,OpenAI 首席執(zhí)行官山姆·阿爾特曼(Sam Altman)本周二在 X 平臺發(fā)布推文,表示在新一輪內(nèi)部架構(gòu)重組中,負(fù)責(zé) AI 安全的主管亞歷山大·馬德里(Aleksander Madry)調(diào)崗,并將其重新分配到一個專注于人工智能推理的崗位。

阿爾特曼在推文中表示:“Aleksander 正在從事一個新的、非常重要的研究項目”。

阿爾特曼補充表示,OpenAI 高管華金·基諾內(nèi)羅·坎德拉(Joaquin Quinonero Candela)和莉莉安·翁(Lilian Weng)將在此期間接管 Preparedness 團隊。

OpenAI安全團隊簡介

IT之家注:OpenAI 公司信任和安全部門主管戴夫·威爾納(Dave Willner)于 2023 年 7 月離職之后,公司于同年 10 月將該部門拆分為 3 個團隊:

安全系統(tǒng)(Safety Systems)團隊:專注于高級人工智能模型和人工通用智能的安全部署,專注于減少對當(dāng)前模型和產(chǎn)品(如 ChatGPT)的濫用。

超級對齊(Superalignment)團隊:為該公司(希望)在更遙遠(yuǎn)的未來擁有的超級智能模型的安全性奠定基礎(chǔ)

Preparedness 團隊:負(fù)責(zé)繪制前沿模型的新風(fēng)險,并對前沿模型進(jìn)行安全評估,評估和減輕與人工智能相關(guān)的“災(zāi)難性風(fēng)險”。

Aleksander簡介

該團隊此前由 Aleksander 領(lǐng)導(dǎo),幫助跟蹤、評估、預(yù)測和防范由人工智能模型帶來的災(zāi)難性風(fēng)險,負(fù)責(zé)繪制前沿模型的新風(fēng)險,并對前沿模型進(jìn)行安全評估。

OpenAI 調(diào)崗安全高管 Aleksander Madry,新職位專注于 AI 推理

圖源:Aleksander MadryLinkedIn

Aleksander 還是麻省理工學(xué)院可部署機器學(xué)習(xí)中心(Center for Deployable Machine Learning)的主任和麻省理工學(xué)院人工智能政策論壇(MIT AI Policy Forum)的教員聯(lián)合負(fù)責(zé)人。

OpenAI 官方表示 Aleksander 在新崗位上仍將從事核心的人工智能安全工作。

贊助本站

相關(guān)熱詞: OpenAI 調(diào)崗 安全 高管 Aleksander Mad

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港