展會(huì)信息港展會(huì)大全

GPT-4o模仿人聲說(shuō)“不”,無(wú)意的語(yǔ)音生成仍是模型弱點(diǎn)
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-08-13 14:16:38   瀏覽:7172次  

導(dǎo)讀:在提供的案例中,AI模型發(fā)出No的聲音,后用一種與紅隊(duì)(OpenAI雇傭進(jìn)行對(duì)抗性測(cè)試的人)相似的聲音繼續(xù)說(shuō)話。數(shù)據(jù)科學(xué)家評(píng)價(jià)稱OpenAI剛剛泄露了《黑鏡》下一季的劇情。 OpenAI 和機(jī)器人對(duì)話,機(jī)器人突然開(kāi)始用你的聲音和你說(shuō)話,這并非科幻劇情,而是OpenAI...

在提供的案例中,AI模型發(fā)出“No”的聲音,后用一種與“紅隊(duì)”(OpenAI雇傭進(jìn)行對(duì)抗性測(cè)試的人)相似的聲音繼續(xù)說(shuō)話。數(shù)據(jù)科學(xué)家評(píng)價(jià)稱“OpenAI剛剛泄露了《黑鏡》下一季的劇情”。

OpenAI

和機(jī)器人對(duì)話,機(jī)器人突然開(kāi)始用你的聲音和你說(shuō)話,這并非科幻劇情,而是OpenAI披露的GPT-4o的詭異行為。

當(dāng)?shù)貢r(shí)間8月8日,OpenAI公開(kāi)了ChatGPT背后的新型人工智能模型GPT-4o的安全報(bào)告,詳細(xì)說(shuō)明模型限制和安全測(cè)試程序。評(píng)估的風(fēng)險(xiǎn)包括說(shuō)話人身份識(shí)別、未經(jīng)授權(quán)的語(yǔ)音生成、潛在的版權(quán)內(nèi)容生成、無(wú)根據(jù)的推理和不允許的內(nèi)容。在大模型的高級(jí)語(yǔ)音模式中,用戶可與人工智能助手進(jìn)行語(yǔ)音對(duì)話,報(bào)告顯示,在測(cè)試過(guò)程中的極少數(shù)情況下,高級(jí)語(yǔ)音模式在未經(jīng)允許的情況下會(huì)模仿用戶的聲音。

OpenAI提到,一個(gè)嘈雜的輸入會(huì)以某種方式促使模型突然模仿用戶的聲音。在OpenAI提供的無(wú)意的語(yǔ)音生成例子中,AI模型發(fā)出“No”的聲音,后用一種與“紅隊(duì)”(OpenAI雇傭進(jìn)行對(duì)抗性測(cè)試的人)相似的聲音繼續(xù)說(shuō)話。新聞網(wǎng)站BuzzFeed的數(shù)據(jù)科學(xué)家馬克斯伍爾夫(Max Woolf)在社交媒體上對(duì)此評(píng)價(jià),“OpenAI剛剛泄露了《黑鏡》下一季的劇情。”

GPT-4o可以在232毫秒內(nèi)響應(yīng)音頻輸入,平均時(shí)間為320毫秒,這與人類在對(duì)話中的響應(yīng)時(shí)間相似。它可以合成訓(xùn)練數(shù)據(jù)中發(fā)現(xiàn)的幾乎任何聲音,包括聲音效果和音樂(lè)。

OpenAI披露的實(shí)例反映了AI聊天機(jī)器人的安全架構(gòu)越來(lái)越復(fù)雜。在未經(jīng)授權(quán)的語(yǔ)音生成示例中,來(lái)自用戶的音頻噪聲混淆了模型,并作為一種無(wú)意的提示注入攻擊,將系統(tǒng)提示中的授權(quán)語(yǔ)音樣本替換為來(lái)自用戶的音頻輸入。目前尚不清楚嘈雜的音頻究竟是如何導(dǎo)致這種情況的,但音頻噪音可能被轉(zhuǎn)化為隨機(jī)的token,從而引發(fā)模型中的意外行為。

目前OpenAI設(shè)計(jì)了安全措施來(lái)防止模型模仿用戶聲音的情況,OpenAI提供授權(quán)的語(yǔ)音樣本供模型模仿,也用另一種系統(tǒng)檢測(cè)模型是否產(chǎn)生了未經(jīng)授權(quán)的音頻。“我們只允許模型使用某些預(yù)先選擇的聲音,并使用輸出分類器來(lái)檢測(cè)模型是否偏離了這些聲音。”OpenAI表示,他們發(fā)現(xiàn),未經(jīng)授權(quán)的語(yǔ)音生成的剩余風(fēng)險(xiǎn)很小,在內(nèi)部評(píng)估中目前系統(tǒng)100%捕捉到與系統(tǒng)聲音有意義的偏差。

“雖然無(wú)意的語(yǔ)音生成仍然是模型的一個(gè)弱點(diǎn),但我們使用二級(jí)分類器來(lái)確保發(fā)生這種情況時(shí)對(duì)話將被中斷,從而使無(wú)意的語(yǔ)音生成風(fēng)險(xiǎn)降到最低。”但OpenAI也表示,當(dāng)對(duì)話語(yǔ)言不是英語(yǔ)時(shí),可能會(huì)導(dǎo)致模型過(guò)度拒絕。

對(duì)于說(shuō)話人身份的識(shí)別,OpenAI對(duì)GPT-4o進(jìn)行了后期訓(xùn)練,讓它拒絕根據(jù)輸入音頻中的聲音來(lái)識(shí)別某人,但可以識(shí)別與名言相關(guān)的人。同時(shí)訓(xùn)練GPT-4o拒絕輸出版權(quán)內(nèi)容,建立了過(guò)濾器來(lái)檢測(cè)和阻止音樂(lè)輸出。

據(jù)Ars Technica報(bào)道,獨(dú)立人工智能研究員西蒙威爾森(Simon Willison)表示,雖然GPT-4o語(yǔ)音合成能力的潛力目前受OpenAI的限制,但隨著時(shí)間的推移,類似的技術(shù)可能會(huì)從其他來(lái)源出現(xiàn)。“ElevenLabs已經(jīng)可以為我們克隆聲音了,大約明年我們就可以在自己的機(jī)器上運(yùn)行這樣的模型了。”

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港