展會信息港展會大全

清華大學(xué)教授黃民烈:AIGC時代保障數(shù)據(jù)安全要靠算法而不是人
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-04-30 14:11:05   瀏覽:4690次  

導(dǎo)讀:【環(huán)球時報-環(huán)球網(wǎng)報道 記者 倪浩】生成式人工智能(AIGC)時代實現(xiàn)數(shù)據(jù)安全,要依靠算法和工具,而不是人。在4月27日下午在2024中關(guān)村論壇數(shù)據(jù)安全治理與發(fā)展論壇上,清華大學(xué)計算機科學(xué)與技術(shù)系教授、人工智能研究院基礎(chǔ)模型研究中心副主任黃民烈教授表示...

【環(huán)球時報-環(huán)球網(wǎng)報道 記者 倪浩】生成式人工智能(AIGC)時代實現(xiàn)數(shù)據(jù)安全,要依靠算法和工具,而不是人。在4月27日下午在“2024中關(guān)村論壇數(shù)據(jù)安全治理與發(fā)展論壇”上,清華大學(xué)計算機科學(xué)與技術(shù)系教授、人工智能研究院基礎(chǔ)模型研究中心副主任黃民烈教授表示,與過去傳統(tǒng)的數(shù)字經(jīng)濟時代不同,人工智能(AI)時代尤其是生成式人工智能(AIGC)的出現(xiàn),讓人類所面臨的數(shù)據(jù)安全問題已有很大的不同,而進行風(fēng)險管控的方法也有根本的不同。

清華大學(xué)教授黃民烈:AIGC時代保障數(shù)據(jù)安全要靠算法而不是人

清華大學(xué)計算機科學(xué)與技術(shù)系教授黃民烈在發(fā)言 (主辦方供圖)

在這次論壇的圓桌會議上發(fā)言時,黃民烈表示,“過去,我們把一些不好的、臟的、有害的數(shù)據(jù)過濾掉,清洗干凈就可以了。但是現(xiàn)在,生成式人工智能(AIGC)是一種生成式的模型,它會通過訓(xùn)練組合生成新的內(nèi)容,這些新的內(nèi)容在過去的語料里根本沒有出現(xiàn)過,但它依然可能是有害的。所以,即使是我們把大模型訓(xùn)練之前的有害數(shù)據(jù)清除的很干凈,在生成式人工智能(AIGC)時代我們依然會面臨有害內(nèi)容產(chǎn)生的風(fēng)險。”

那么怎么應(yīng)對生成式人工智能(AIGC)所帶來的新的數(shù)據(jù)全安的風(fēng)險呢?要靠算法的研究,而不是人。黃民烈說,一般情況下,在各種大模型中,人們采用關(guān)鍵詞過濾,進行風(fēng)險檢測后上線,對外提供服務(wù)。但是,有些人依然有辦法讓它“越獄”,讓這種安全管控失效,并產(chǎn)生有害的內(nèi)容。為杜絕這種風(fēng)險,就要依賴背后的算法的研究。

黃民烈說,“這些算法有幾類,其中包括研究有針對性的對抗和攻擊的方法,比如事先讓一些算法自動發(fā)現(xiàn)這個模型的漏洞和風(fēng)險;第二,可以研究算法去追蹤模型存在哪些漏洞,再針對性的制定安全手段。這兩種手段都是通過算法把一些問題在大模型上線前進行自動修復(fù)。

“一句話來講,在生成式人工智能(AIGC)時代,在數(shù)據(jù)安全層面,其實我們面臨的是不斷組合和創(chuàng)造出來的新的數(shù)據(jù)安全風(fēng)險問題,這種風(fēng)險徹底的解決是需要我們的算法和工具的支撐,而不是靠人。”黃民烈說,靠一些靜態(tài)的方法去做一些相對固定的檢測,實際上是不能夠勝任新的生成式人工智能(AIGC)時代的數(shù)據(jù)檢測和安全的要求的。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港