(圖片來(lái)源:Stockcake)
最近AI領(lǐng)域發(fā)生了一件重磅事件,引發(fā)廣泛關(guān)注。
北京時(shí)間6月20日,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊利亞(Ilya Sutskever)在社交平臺(tái)上發(fā)文宣布,將創(chuàng)辦一家“安全超級(jí)智能公司”(Safe Superintelligence Inc.,簡(jiǎn)稱(chēng)SSI)。
“SSI是我們的使命、我們的名字、我們的整個(gè)產(chǎn)品路線圖,因?yàn)樗俏覀兾ㄒ坏慕裹c(diǎn)。我們的團(tuán)隊(duì)、投資者和商業(yè)模式都是以實(shí)現(xiàn)SSI為目標(biāo)。”伊利亞、科技企業(yè)家和投資者Daniel Gross、OpenAI前科學(xué)家Daniel Levy在該公司官網(wǎng)發(fā)表的聯(lián)合署名文章中稱(chēng),“構(gòu)建安全的超級(jí)智能,是我們這個(gè)時(shí)代最重要的技術(shù)問(wèn)題。我們計(jì)劃盡快提升能力,同時(shí)確保我們的安全始終處于領(lǐng)先地位。”
伊利亞透露,該公司已經(jīng)啟動(dòng)了世界上第一個(gè)直接的安全的超級(jí)智能實(shí)驗(yàn)室,只有一個(gè)目標(biāo)和一個(gè)產(chǎn)品:一個(gè)安全的超級(jí)智能。但目前,SSI并未公布公司的股東、科研團(tuán)隊(duì)和盈利模式。
實(shí)際上,伊利亞離開(kāi)OpenAI,很大程度上就是因?yàn)榕cOpenAI CEO奧爾特曼(Sam Altman)為核心的管理層存在分歧,尤其是在如何駕馭超級(jí)AI、AGI(通用人工智能)安全發(fā)展等問(wèn)題上存在相反的觀點(diǎn)。
其中,奧爾特曼和OpenAI總裁Greg Brockman傾向于加速商業(yè)化,以獲得更多資金來(lái)支持AI模型的算力需求,力求快速增強(qiáng)AI的力量;而伊利亞等人則希望AI更安全。
去年11月,雙方矛盾激化,OpenAI上演“宮斗”大戲,結(jié)果奧爾特曼和Greg Brockman在短暫離職后重歸OpenAI,原董事會(huì)中的多位董事離開(kāi),伊利亞則在今年5月宣布離任。
對(duì)此,國(guó)內(nèi)AI安全公司瑞萊智慧(RealAI)CEO田天對(duì)鈦媒體AGI等表示,奧爾特曼和伊利亞之間的分歧在于對(duì)AI安全的“路線之爭(zhēng)”,伊利亞的新公司就是為了 AI 安全目標(biāo)而設(shè)立的。
田天指出,包括伊利亞、圖靈獎(jiǎng)得主Geoffrey Hinton等人認(rèn)為,AI安全問(wèn)題現(xiàn)在已經(jīng)到了“非常迫切”去解決的程度。如果現(xiàn)在不去做,很有可能就會(huì)錯(cuò)過(guò)這個(gè)機(jī)會(huì),未來(lái)再想亡羊補(bǔ)牢是“沒(méi)有可能性”的。
“大模型領(lǐng)域也是一樣。雖然我們對(duì)于大模型預(yù)期非常高,認(rèn)為它在很多領(lǐng)域都能去應(yīng)用,但其實(shí)現(xiàn)在,真正在嚴(yán)肅場(chǎng)景下的大模型應(yīng)用典型案例還是非常少的,主要問(wèn)題在于 AI 安全上。如果不解決安全可控問(wèn)題,對(duì)于一些嚴(yán)肅場(chǎng)景,是沒(méi)有人敢去信任AI,沒(méi)有人敢去用它(AI)。只有說(shuō)解決安全、可信問(wèn)題,AI才有可能去落地和應(yīng)用。”田天表示,如果一些商業(yè)化公司對(duì)于安全問(wèn)題不夠重視、并毫無(wú)邊界快速往前跑的話,可能會(huì)造成一系列安全危害,甚至可能對(duì)于整個(gè)全人類(lèi)有一些安全風(fēng)險(xiǎn)和影響。
早在聊天機(jī)器人ChatGPT發(fā)布之前,伊利亞便提到AGI對(duì)人類(lèi)社會(huì)可能的威脅。他把AGI與人類(lèi)的關(guān)系,類(lèi)比人類(lèi)與動(dòng)物的關(guān)系,稱(chēng)“人類(lèi)喜歡許多動(dòng)物,但當(dāng)人類(lèi)要造一條高速路時(shí),是不會(huì)向動(dòng)物征求意見(jiàn)的,因?yàn)楦咚俾穼?duì)人類(lèi)很重要。人類(lèi)和通用人工智能的關(guān)系也將會(huì)這樣,通用人工智能完全按照自己的意愿行事。”
AGI,即人工智能已具備和人類(lèi)同等甚至超越人類(lèi)的智能,簡(jiǎn)單而言就是能說(shuō)會(huì)寫(xiě),具備計(jì)算、推理、分析、預(yù)測(cè)、完成任務(wù)等各類(lèi)人類(lèi)行為。這樣的AI曾經(jīng)遙遠(yuǎn),但在OpenAI推出第四代模型GPT-4且正訓(xùn)練第五代模型GPT-5時(shí),AGI看似近在咫尺。
今年以來(lái),AI 安全問(wèn)題持續(xù)引發(fā)關(guān)注。
今年1月,美國(guó)一位流行歌手被人用AI惡意生成虛假照片,在社交媒體迅速傳播,給歌手本人造成困擾;2月,香港一家公司遭遇“AI變臉”詐騙,損失高達(dá)2億元港幣,據(jù)悉,這家公司一名員工在視頻會(huì)議中被首席財(cái)務(wù)官要求轉(zhuǎn)賬。然而,會(huì)議中的這位“領(lǐng)導(dǎo)”和其他員工,實(shí)際都是深度偽造的AI影像。詐騙者通過(guò)公開(kāi)渠道獲取的資料,合成了首席財(cái)務(wù)官的形象和聲音,并制作出多人參與視頻會(huì)議的虛假場(chǎng)景。
整體來(lái)看,為了實(shí)現(xiàn)AGI目標(biāo),當(dāng)前,AI系統(tǒng)在設(shè)計(jì)上主要面臨五大安全挑戰(zhàn):
軟硬件的安全:在軟件及硬件層面,包括應(yīng)用、模型、平臺(tái)和芯片,編碼都可能存在漏洞或后門(mén);攻擊者能夠利用這些漏洞或后門(mén)實(shí)施高級(jí)攻擊。在AI模型層面上,攻擊者同樣可能在模型中植入后門(mén)并實(shí)施高級(jí)攻擊;由于AI模型的不可解釋性,在模型中植入的惡意后門(mén)難以被檢測(cè)。
數(shù)據(jù)完整性:在數(shù)據(jù)層面,攻擊者能夠在訓(xùn)練階段摻入惡意數(shù)據(jù),影響AI模型推理能力;攻擊者同樣可以在判斷階段對(duì)要判斷的樣本加入少量噪音,刻意改變判斷結(jié)果。
模型保密性:在模型參數(shù)層面,服務(wù)提供者往往只希望提供模型查詢服務(wù),而不希望暴露自己訓(xùn)練的模型;但通過(guò)多次查詢,攻擊者能夠構(gòu)建出一個(gè)相似的模型,進(jìn)而獲得模型的相關(guān)信息。
模型魯棒性:訓(xùn)練模型時(shí)的樣本往往覆蓋性不足,使得模型魯棒性不強(qiáng);模型面對(duì)惡意樣本時(shí),無(wú)法給出正確的判斷結(jié)果。
數(shù)據(jù)隱私:在用戶提供訓(xùn)練數(shù)據(jù)的場(chǎng)景下,攻擊者能夠通過(guò)反復(fù)查詢訓(xùn)練好的模型獲得用戶的隱私信息。
北京智源人工智能研究院學(xué)術(shù)顧問(wèn)委員會(huì)主任張宏江在2024北京智源大會(huì)上表示,過(guò)去一年大模型發(fā)展速度之快,行業(yè)紛紛探討通用人工智能的實(shí)現(xiàn)路徑與曙光,但AI安全問(wèn)題的嚴(yán)重性與緊迫性不容忽視。
“當(dāng)我們從不同層面 AI 能安全問(wèn)題進(jìn)行審視,除了對(duì)社會(huì)偏見(jiàn),錯(cuò)誤信息,潛在的工作替代或者大模型、自主機(jī)器人帶來(lái)的大規(guī)模自動(dòng)化而導(dǎo)致的工作流失,以及潛在的加速財(cái)富集中或財(cái)富兩極化等問(wèn)題有所了解,更應(yīng)該關(guān)注 AI 可能帶來(lái)新的經(jīng)濟(jì)體系和包括潛在的災(zāi)難性風(fēng)險(xiǎn)或誤用事故,甚至可能導(dǎo)致延伸性的人類(lèi)風(fēng)險(xiǎn)。AI 安全已有很多聲明和請(qǐng)?jiān),但更重要的是明確目標(biāo)、投入資源、采取行動(dòng)、共同應(yīng)對(duì)風(fēng)險(xiǎn)。”張宏江表示。
北京智源人工智能研究院理事長(zhǎng)黃鐵軍表示,水深流急,AI安全已進(jìn)入風(fēng)險(xiǎn)很突出的階段。應(yīng)對(duì)AI安全風(fēng)險(xiǎn),需要對(duì)AGI水平和能力進(jìn)行分五級(jí),而且,人類(lèi)應(yīng)該致力于解決 AI 安全問(wèn)題,加強(qiáng)與國(guó)際社會(huì)在AI安全領(lǐng)域的合作,確保AI技術(shù)可控,迎接安全AGI的到來(lái)。
AGI水平和能力的五個(gè)級(jí)別
生成式AI技術(shù)是一把雙刃劍,如何把生成式AI的強(qiáng)大能力用于建立信息安全規(guī)范,將制約行業(yè)發(fā)展的“絆腳石”變?yōu)?ldquo;壓艙石”?業(yè)界一直在探索“用技術(shù)治理技術(shù)”的方案。
就在6月21日,瑞萊智慧推出全球首個(gè)可實(shí)時(shí)檢測(cè)AI合成內(nèi)容產(chǎn)品RealBelieve,中文名“尊嘟假嘟”。
據(jù)悉,與此前國(guó)內(nèi)外AIGC檢測(cè)產(chǎn)品被動(dòng)上傳檢測(cè)不同,RealBelieve主要面向終端用戶,能夠提供主動(dòng)實(shí)時(shí)檢測(cè)防護(hù),可接入視頻流鑒別人臉真?zhèn)危部稍谟脩魹g覽網(wǎng)頁(yè)內(nèi)容時(shí)提供AIGC合成可能性提示。不僅可以為終端用戶提供文本、圖片、視頻和音頻多種模態(tài)的文件上傳檢測(cè)服務(wù),還可以通過(guò)瀏覽器插件的形式實(shí)時(shí)提示用戶所瀏覽網(wǎng)頁(yè)的疑似AI合成內(nèi)容,變被動(dòng)為主動(dòng)。目前,尊嘟假嘟RealBelieve已開(kāi)啟內(nèi)測(cè)招募。
田天表示,作為國(guó)內(nèi)為數(shù)不多專(zhuān)攻 AI 安全領(lǐng)域的公司,瑞萊智慧已服務(wù)百余家政務(wù)、金融等領(lǐng)域客戶。隨著AI技術(shù)的發(fā)展,安全在整個(gè)AI發(fā)展中的優(yōu)先級(jí)一直在往前去走。未來(lái) AI 技術(shù)要往超級(jí)智能方向發(fā)展的話,必須要建立整個(gè)安全體系,從而確保形成安全的超級(jí)智能技術(shù)。
“如果現(xiàn)在不去做好 AI 安全的話,可能后面我們就沒(méi)有機(jī)會(huì)了。”田天稱(chēng)。
(本文首發(fā)于鈦媒體App,作者|林志佳,編輯|胡潤(rùn)峰)