白交 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
Is Scaling is All you Need?
在Ilya探討完「預(yù)訓(xùn)練即將終結(jié)」之后,關(guān)于Scaling Law的討論再次引發(fā)熱議。
這屆NeurIPS將被銘記成預(yù)訓(xùn)練終結(jié)的一屆會議
在最新研討會上,OpenAI大神,o1核心成員Noam Brown表示,o1代表的是一種全新的,以推理計算為代表的Scaling。
網(wǎng)友們表示:好好好,Scaling Law還沒有死!Scaling Law還在繼續(xù)。
演講實錄:Is Scaling is All you Need?Noam Brown,OpenAI大神一枚,去年7月從Meta離職,曾開發(fā)首個在戰(zhàn)略游戲中達(dá)到人類水平的AI,此前在游戲AI領(lǐng)域相關(guān)研究成果曾登上Science封面。
如今在OpenAI致力于多步推理、自我博弈以及多智能體AI相關(guān)的研究。
此前在o1發(fā)布的直播時候露過面。
據(jù)網(wǎng)友@swyx分享,Noam Brown首先談到Scaling Law的過去演進(jìn)。
AI從2019年到現(xiàn)在,GPT-2演進(jìn)到GPT-4,這難以置信的成就都來自于數(shù)據(jù)和算力規(guī)模的擴(kuò)大。
但大語言模型仍然無法解決像井字棋這樣的簡單問題,
那么隨之而來的一個問題是,Is Scaling is All you Need?我們真的還需要再消耗更高的成本來訓(xùn)練更好的AI嗎?
這當(dāng)中被低估的其實是推理的成本,它在過去的擴(kuò)展(Scaling)要少得多。o1帶來了Scaling的新的維度。
隨后,他追溯了過去模型展現(xiàn)出來的類似規(guī)律。
比如在2012年-2015年間撲克模型的擴(kuò)展。模型規(guī)模每年擴(kuò)展5倍,但收效不大。但依照「人類需要更長時間思考更難問題」這一見解,增加了模型20 秒的搜索時間,效果大致相當(dāng)于將模型規(guī)模擴(kuò)大了100000倍。
還有在棋牌中擴(kuò)展推理的歷史,backgammon- 國際象棋 - 圍棋。AlphaGo Zero在原始NN基礎(chǔ)上實現(xiàn)了從3000到5200 Elo增長,都是因為test-time search(推理時間搜索)。
此外,他還引用了Andy L.Jones關(guān)于Scaling Laws of games的圖表可以用10倍的預(yù)訓(xùn)練計算量換取15倍的測試時間計算量。
如果游戲結(jié)果擴(kuò)展到 LLMs,是不是也會是如此?
那么關(guān)于o1接下來,會有更高的推理計算能力。在過去 5 年里,LLM概念就是聊天機(jī)器人。那么他們可以做得更好”
最后他還打了個小廣告,目前他的多智能體團(tuán)隊還在招人ing。
網(wǎng)友評論如果再結(jié)合昨天Ilya談到「預(yù)訓(xùn)練時代即將終結(jié)」。那么對于市場來說,這一波可不是利好英偉達(dá)了(Doge)。
不過也有從業(yè)者站出來反對他的看法:推理時間計算(Inference Time Computation)并不新鮮,本來還想把它去掉,但出于需要又讓它回來了。
他還糾正說,里面關(guān)于諸多游戲時間順序是錯誤的,許多游戲(包括國際象棋和圍棋)一開始都只專注于推理時間計算。但后來大家都傾向于離線學(xué)習(xí)策略,這樣省去了大量的在線計算時間。
因此,減少面向用戶的推理時間計算是一個深思熟慮的選擇,甚至導(dǎo)致該領(lǐng)域開始改變對計算復(fù)雜性考慮的方式。
這一趨勢在 LLMs 中也得到了延續(xù)所有的重點都放在預(yù)訓(xùn)練上,因此推理時間的計算量可以忽略不計。這樣對終端用戶來說成本極低,甚至可以在本地的邊緣設(shè)備上完成。
Ilya在談到未來超級智能的暢想時,也提及了當(dāng)前推理的不可預(yù)測性:
推理越多,系統(tǒng)變得越不可預(yù)測,這一點在一些復(fù)雜任務(wù)中表現(xiàn)得尤為突出。
他還提到:
目前的AI系統(tǒng)還不能真正理解和推理,雖然它們能模擬人類的直覺,但未來的AI將會在推理和決策方面展現(xiàn)出更加不可預(yù)測的能力。
不過大模型到底會朝著哪些能力上擴(kuò)展,這個還得看這些科學(xué)家們持續(xù)探索。
One More Thing本來啊,從現(xiàn)場repo來看,這本來是個關(guān)于數(shù)學(xué)AI的研討會,硬生生地被他弄成了討論大模型推理Scaling Law。
現(xiàn)場也是人很多,據(jù)說門口都還有20多個人在排隊等待。當(dāng)然也有部分原因是房間太小了。
參考鏈接:
[1]https://x.com/swyx/status/1867990396762243324[2]https://x.com/e__honig/status/1868002417045840243[3]https://x.com/drapersgulld/status/1868023022390485052