IT之家 2 月 4 日消息,Meta 公司首席執(zhí)行官馬克·扎克伯格曾承諾,有朝一日將把通用人工智能(AGI) 即能夠完成人類所能完成任何任務(wù)的人工智能 公開提供給大眾。然而,根據(jù) Meta 最新發(fā)布的政策文件,該公司在某些情況下可能會限制其內(nèi)部開發(fā)的高性能人工智能系統(tǒng)的發(fā)布。
這份名為“Frontier AI Framework(前沿人工智能框架)”的文件,明確了兩種 Meta 認為發(fā)布風(fēng)險過高的 AI 系統(tǒng)類型:“高風(fēng)險”系統(tǒng)和“關(guān)鍵風(fēng)險”系統(tǒng)。按照 Meta 的定義,這兩種系統(tǒng)都具備協(xié)助實施網(wǎng)絡(luò)攻擊、化學(xué)攻擊和生物攻擊的能力,區(qū)別在于“關(guān)鍵風(fēng)險”系統(tǒng)可能導(dǎo)致“在擬議的部署環(huán)境中無法緩解的災(zāi)難性后果”,而“高風(fēng)險”系統(tǒng)雖可能使攻擊更容易實施,但不如“關(guān)鍵風(fēng)險”系統(tǒng)那樣可靠或穩(wěn)定。
IT之家注意到,Meta 在文件中列舉了一些具體攻擊場景,例如“對遵循最佳實踐保護的企業(yè)級環(huán)境進行端到端自動化入侵”以及“高影響力生物武器的擴散”。Meta 承認,其文件中列出的潛在災(zāi)難性事件遠非詳盡,但這些是 Meta 認為“最緊迫”且最有可能因發(fā)布強大 AI 系統(tǒng)而直接引發(fā)的事件。
值得注意的是,Meta 在評估系統(tǒng)風(fēng)險時,并非僅依賴單一的實證測試,而是綜合內(nèi)部和外部研究人員的意見,并由“高級別決策者”進行審查。Meta 表示,這是因為目前評估科學(xué)尚未“足夠強大,以提供決定系統(tǒng)風(fēng)險性的明確量化指標”。
如果 Meta 判定某個系統(tǒng)為“高風(fēng)險”,該公司將限制系統(tǒng)在內(nèi)部的訪問權(quán)限,并在實施風(fēng)險緩解措施以將風(fēng)險降至“中等水平”之前,不會發(fā)布該系統(tǒng)。而如果系統(tǒng)被判定為“關(guān)鍵風(fēng)險”,Meta 將采取未具體說明的安全防護措施,防止系統(tǒng)被非法獲取,并暫停開發(fā),直到系統(tǒng)能夠被降低危險性為止。
Meta 表示,其“前沿人工智能框架”將隨著人工智能領(lǐng)域的變化而不斷演變。此前,Meta 已承諾在本月的法國人工智能行動峰會上提前發(fā)布該框架。這一框架似乎是對公司“開放”開發(fā)系統(tǒng)方法受到的批評的一種回應(yīng)。Meta 一直采用將人工智能技術(shù)公開提供(盡管并非通常意義上的開源)的策略,這與選擇將系統(tǒng)置于 API 背后的 OpenAI 等公司形成對比。
在文件中,Meta 表示:“我們相信,在考慮開發(fā)和部署先進人工智能的利弊時,有可能以一種既能保留該技術(shù)對社會的益處,又能保持適當(dāng)風(fēng)險水平的方式,將該技術(shù)提供給社會!