展會(huì)信息港展會(huì)大全

媒體爆料:發(fā)現(xiàn)新一代大模型”沒有那么大飛躍“,OpenAI已經(jīng)改變策略
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-10 18:45:57   瀏覽:0次  

導(dǎo)讀:劃重點(diǎn)01科技媒體The Information報(bào)道,OpenAI的下一個(gè)旗艦?zāi)P汀癘rion”已完成20%的訓(xùn)練,表現(xiàn)接近現(xiàn)有的GPT-4,但進(jìn)步幅度不如前兩代旗艦?zāi)P汀?2Orion在語言任務(wù)上表現(xiàn)更好,但在編碼等任務(wù)上可能不會(huì)優(yōu)于以前的模型。03由于高質(zhì)量訓(xùn)練數(shù)據(jù)的減少以及計(jì)算成本的增加,OpenAI的研究人員正在探討是否有其他改進(jìn)模型性能的方法。04與此同時(shí),OpenAI成立了一個(gè)專門團(tuán)隊(duì),負(fù)責(zé)探 ......

劃重點(diǎn)

01科技媒體The Information報(bào)道,OpenAI的下一個(gè)旗艦?zāi)P汀癘rion”已完成20%的訓(xùn)練,表現(xiàn)接近現(xiàn)有的GPT-4,但進(jìn)步幅度不如前兩代旗艦?zāi)P汀?br/>

02Orion在語言任務(wù)上表現(xiàn)更好,但在編碼等任務(wù)上可能不會(huì)優(yōu)于以前的模型。

03由于高質(zhì)量訓(xùn)練數(shù)據(jù)的減少以及計(jì)算成本的增加,OpenAI的研究人員正在探討是否有其他改進(jìn)模型性能的方法。

04與此同時(shí),OpenAI成立了一個(gè)專門團(tuán)隊(duì),負(fù)責(zé)探索如何優(yōu)化有限的訓(xùn)練數(shù)據(jù)和調(diào)整擴(kuò)展法的應(yīng)用,以保持模型改進(jìn)的穩(wěn)定性。

以上內(nèi)容由大模型生成,僅供參考

隨著ChatGPT和其他人工智能產(chǎn)品的用戶數(shù)量不斷攀升,支撐這些產(chǎn)品的核心技術(shù)大型語言模型(LLM)的進(jìn)步速度卻似乎放緩了。

據(jù)科技媒體The Information報(bào)道,OpenAI開發(fā)的下一個(gè)旗艦?zāi)P汀癘rion”,目前已經(jīng)完成20%的訓(xùn)練。盡管表現(xiàn)已接近現(xiàn)有的GPT-4,但進(jìn)步幅度卻遠(yuǎn)不如前兩代旗艦?zāi)P椭g的飛躍。

該媒體還援引OpenAI 的一名員工稱,Orion在語言任務(wù)上表現(xiàn)更好,但在編碼等任務(wù)上可能不會(huì)優(yōu)于以前的模型。另一位知情人士表示,與最近發(fā)布的其他模型相比,OpenAI在其數(shù)據(jù)中心運(yùn)行 Orion 的成本可能更高。

質(zhì)量進(jìn)展放緩,擴(kuò)展法面臨挑戰(zhàn)

在過去幾年中,LLM使用來自網(wǎng)站、書籍和其他來源的公開文本和其他數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練過程,這種方法雖然能在一定程度上緩解數(shù)據(jù)匱乏,但帶來的質(zhì)量提升有限。

OpenAI的員工表示,Orion部分接受了人工智能生成的數(shù)據(jù)訓(xùn)練,這些數(shù)據(jù)由其他OpenAI模型生成,包括GPT-4和最近發(fā)布的推理模型。然而,這種合成數(shù)據(jù)導(dǎo)致了一個(gè)新問題,即Orion最終可能會(huì)在某些方面與那些舊模型相似。

與此類似,其他一些AI公司也面臨類似的問題。Meta創(chuàng)始人馬克扎克伯格和Databricks公司創(chuàng)始人Ion Stoica都指出,盡管AI技術(shù)在編碼、復(fù)雜任務(wù)解決等方面繼續(xù)取得進(jìn)展,但在常識判斷和通用任務(wù)能力上,性能提升已趨于緩慢。

Orion的進(jìn)展放緩直接挑戰(zhàn)了人工智能領(lǐng)域一直奉行的“縮放定律”,即在數(shù)據(jù)量和計(jì)算資源不斷增加的前提下,模型性能將持續(xù)大幅度提升。

為了應(yīng)對GPT改進(jìn)放緩給基于訓(xùn)練的縮放定律帶來的挑戰(zhàn),業(yè)界似乎正在將精力轉(zhuǎn)向在初始訓(xùn)練之后改進(jìn)模型,從而可能產(chǎn)生不同類型的縮放定律。由于高質(zhì)量訓(xùn)練數(shù)據(jù)的減少以及計(jì)算成本的增加,OpenAI的研究人員不得不開始探討是否有其他改進(jìn)模型性能的方法。

例如,OpenAI正在將更多代碼編寫功能嵌入其模型中,并試圖開發(fā)一種軟件,可以接管個(gè)人計(jì)算機(jī),通過執(zhí)行點(diǎn)擊、 光標(biāo)移動(dòng)等執(zhí)行其他操作, 完成網(wǎng)絡(luò)瀏覽器活動(dòng)或應(yīng)用程序的任務(wù)。

OpenAI還成立了一個(gè)專門團(tuán)隊(duì),由之前負(fù)責(zé)預(yù)訓(xùn)練的Nick Ryder領(lǐng)導(dǎo),負(fù)責(zé)探索如何優(yōu)化有限的訓(xùn)練數(shù)據(jù)和調(diào)整擴(kuò)展法的應(yīng)用,以保持模型改進(jìn)的穩(wěn)定性。

團(tuán)隊(duì)通過訓(xùn)練模型解決大量數(shù)學(xué)和編碼問題,讓模型在后期強(qiáng)化過程中逐步提高對這些任務(wù)的解答能力。此外,人工評估員還會(huì)對模型在不同任務(wù)上的表現(xiàn)進(jìn)行評分,以幫助模型在復(fù)雜問題上提供更準(zhǔn)確的答案。

巨大計(jì)算成本帶來的財(cái)務(wù)負(fù)擔(dān)

然而,隨著模型復(fù)雜度的增加,訓(xùn)練和運(yùn)行這些AI模型的成本也在急劇上升。例如,o1模型的推理成本是普通模型的六倍。

即便如此,扎克伯格、Sam Altman等人都曾表示,他們還沒有達(dá)到傳統(tǒng)擴(kuò)展法的極限。

這也許就是為什么OpenAI等公司依然在投資數(shù)十億美元建設(shè)數(shù)據(jù)中心,希望通過增加計(jì)算能力,從預(yù)訓(xùn)練模型中獲得更多的性能提升。

但OpenAI研究員Noam Brown在TEDAI大會(huì)上警告,開發(fā)更為先進(jìn)的模型可能將面臨數(shù)百億美元的高昂費(fèi)用,成為財(cái)務(wù)上的巨大負(fù)擔(dān)。

“畢竟,我們真的要訓(xùn)練花費(fèi)數(shù)千億美元或數(shù)萬億美元的模型嗎?在某些時(shí)候,擴(kuò)展范式會(huì)崩潰。”

或許在未來,OpenAI和其他AI公司都需要繼續(xù)在訓(xùn)練數(shù)據(jù)和計(jì)算資源之間尋求平衡,探索如何在不增加巨大財(cái)務(wù)負(fù)擔(dān)的前提下,進(jìn)一步優(yōu)化模型性能。

本文來自華爾街見聞,歡迎下載APP查看更多

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港