新智元報道
編輯:Aeneas
【新智元導(dǎo)讀】Scaling Law撞墻了嗎?OpenAI高級研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經(jīng)有o系列和GPT系列兩個模型,來讓模型繼續(xù)保持Scaling。
最近,OpenAI高級研究副總裁Mark Chen在爐邊談話中,正式否認(rèn)「Scaling Law撞墻論」。
他表示,并沒有看到Scaling Law撞墻,甚至OpenAI還有兩個范例o系列和GPT系列,來保持這種Scaling。
用他的話說,「我們準(zhǔn)確地掌握了需要解決的技術(shù)挑戰(zhàn)」。
o1不僅是能力提升,也是安全改進(jìn)
從經(jīng)濟角度看,OpenAI已經(jīng)是最有價值的科技公司之一,因為他們?yōu)檎鎸嵱脩籼峁┝藬?shù)十億美元的價值。
兩年前,AI最前沿的任務(wù)還是小學(xué)數(shù)學(xué)題;而今天,它們已經(jīng)可以做最難的博士生題目。
因此,我們正處于這樣一個階段:AI模型能夠解決人類有史以來最困難的考試。
一旦這些模型解決了博士級別的問題,下一步,即使為世界提供實用性和價值。
當(dāng)所有基準(zhǔn)測試飽和之后,需要考慮的就是是否為最終用戶提供了價值。
雖然今天AI通過了基準(zhǔn)測試,但它并沒有完全捕捉到AGI應(yīng)該做的事。
好在,在過去一年里,OpenAI內(nèi)部發(fā)生了最令人興奮的進(jìn)展o1誕生了。
這不僅是一種能力上的提升,從根本上來說也是一種安全改進(jìn)。
為什么這么說?
想象我們試圖對一個模型進(jìn)行越獄,舊的GPT系統(tǒng)必須立即做出回應(yīng),所以可能更容易被觸發(fā)。
但當(dāng)我們有一個推理器時,模型卻會反思:這個問題是不是試圖讓我做一些與我要做的不一致的事?
此時,它獲得的額外思考和反思的時間,會讓它在很多安全問題上更穩(wěn)健。
這也符合OpenAI研究者最初的預(yù)期。
當(dāng)我們談到推理時,這是一個廣泛的概念,不僅僅用于數(shù)學(xué)或編程。
在編程中使用的推理方法,可能也適用于談判,或者玩一個很難的游戲。
而說到基準(zhǔn)測試,在安全性上也有同樣的挑戰(zhàn)。
安全性有點類似于這種對抗性攻擊框架。在這種情況下,攻擊是非常強烈的,因此我們在這方面還有很長的路要走。
如何到達(dá)五級AGI
AGI從一級到五級,關(guān)鍵推動因素是什么呢?
OpenAI提出的框架中,定義了AGI的不同級別,具體來說,就是從基本推理者發(fā)展到更智能的系統(tǒng),再到能在現(xiàn)實世界里采取行動的模型,最終到達(dá)更自主、完全自主的系統(tǒng)。
在這個過程中,穩(wěn)健性和推理能力是關(guān)鍵。
今天我們還不能依賴很多智能體系統(tǒng),原因是它們還不夠可靠。這就是OpenAI押注推理能力的原因。
OpenAI之所以大量投資,就是對此極有信心:推理能力將推動可靠性和穩(wěn)健性。
所以,我們目前正處于哪一階段呢?
OpenAI研究者認(rèn)為,目前我們正從第一階段向第二階段過渡,朝著更智能系統(tǒng)的方向發(fā)展。
雖然目前,許多智能體系統(tǒng)仍然需要人類監(jiān)督,但它們已經(jīng)變得越來越自主。模型可以自行原作,我們對于AI系統(tǒng)的信任也在逐漸增加。
合成數(shù)據(jù)的力量
合成數(shù)據(jù),就是不由人類直接產(chǎn)生的數(shù)據(jù),而是模型生成的數(shù)據(jù)。
有沒有什么好的方法,來生成用于訓(xùn)練模型的合成數(shù)據(jù)呢?
我們在數(shù)據(jù)稀缺或數(shù)據(jù)質(zhì)量較低的數(shù)據(jù)集中,可以看到合成數(shù)據(jù)的力量。
比如,在訓(xùn)練像DALL-E這樣的模型時,就利用了合成數(shù)據(jù)。
訓(xùn)練圖像生成模型的一個核心問題是,當(dāng)我們?nèi)タ椿ヂ?lián)網(wǎng)上帶標(biāo)題的圖片時,標(biāo)題和它所描述的圖片之間通常關(guān)聯(lián)性很低。
你可能會看到一張熱氣球的照片,而標(biāo)題并不是描述氣球本身,而是「我度過最好的假期」之類的。
在OpenAI研究者看來,在這種情況下,就可以真正利用合成數(shù)據(jù),訓(xùn)練一個能為圖片生成高保真標(biāo)題的模型。
然后,就可以為整個數(shù)據(jù)集重新生成捕獲了,OpenAI已經(jīng)證明,這種方法非常有效。
數(shù)據(jù)集中某方面較差的其他領(lǐng)域,也可以采用這個辦法。
Scaling Law沒有撞墻
最近很火熱的一個觀點是,Scaling Law已經(jīng)撞墻了,許多大型基礎(chǔ)實驗室都遇到了預(yù)訓(xùn)練的瓶頸。
果真如此嗎?
Mark Chen的觀點是,雖然的確在預(yù)訓(xùn)練方面遇到一些瓶頸,但OpenAI內(nèi)部的觀點是,已經(jīng)有了兩種非;钴S的范式,讓人生成無限希望。
他們探索了一系列模型的測試時Scaling范式,發(fā)現(xiàn)它們真的在迅速發(fā)展!
在推理模型的Scaling上,也沒有同樣的障礙。
其實,從早期入職OpenAI后,研究者就一直遇到多個技術(shù)挑戰(zhàn)。現(xiàn)在這些挑戰(zhàn)已經(jīng)非常具體,在Mark Chen看來,沒有什么是完全無法應(yīng)對的。
在OpenAI內(nèi)部,大家經(jīng)常說推理范式已經(jīng)達(dá)到了一定的成熟度。有些產(chǎn)品已經(jīng)有了與市場的契合點,雖然進(jìn)展仍然非常緩慢。
過去幾周內(nèi),最令人驚訝的使用場景,莫過于和o1進(jìn)行頭腦風(fēng)暴了。
o1和GPT-4的對比,讓人感受到了全新的深度:人類仿佛終于有了一個真正能互動的陪練伙伴,而非僅僅對自己的想法進(jìn)行評論。
它仿佛一個真正的實體,非常有參與感。
o1的推理直覺,是如何產(chǎn)生的
OpenAI的研究者,是如何想到o1中的推理直覺的呢?
這是一個集體努力的結(jié)果,不過他們也進(jìn)行了很長時間的工作,進(jìn)行了一些探索性的重點嘗試。
在兩年前,他們就覺得,AI雖然非常聰明,但在某些方面是不足的。不知為什么,總是感覺不太像AGI。
當(dāng)時他們假設(shè),原因在于,這是因為AI被要求立即做出回應(yīng)。
就算我們要求一個人類立即做出回應(yīng),ta也未必能給出最好的答案。
一個人可能會說,我需要思考一會,或者我需要做一些研究,明天再答復(fù)你。
就在這里,OpenAI研究者發(fā)現(xiàn)了亮點!
其實這里缺少的,是連接系統(tǒng)一和系統(tǒng)二之間的鴻溝。
快速思考有,知識也有,但卻沒有慢速思考,核心假設(shè)就在這里。
研究者做了許多不同嘗試,來解決這個挑戰(zhàn)。
一群非常具有探索精神的研究者,獲得了一些生命跡象。
圍繞這些跡象,他們組建了研究團隊,擴大的項目規(guī)模,投入了大量的數(shù)據(jù)生成工作。
從快速進(jìn)展中獲取預(yù)測結(jié)果,是整個案例中最難的部分。
開始時,就像登月計劃一樣,會遭遇很多失敗。
有三四個月,他們完全沒取得多少有意義的進(jìn)展。
好在最終,總會有人獲得重大突破。這也就給了他們足夠的動力來投入更多資源,往前推動一點。
從o1推出幾個月后,OpenAI和許多外部合作伙伴進(jìn)行了交流。
最酷的一件事就是,他們發(fā)現(xiàn)它比使用微調(diào)方法要好得多它已經(jīng)不太容易被問題難倒了。
很多應(yīng)用已經(jīng)超出了研究者之前關(guān)注的數(shù)學(xué)和科學(xué)領(lǐng)域。當(dāng)看到AI的推理能力能泛化到這些領(lǐng)域,真的令人驚喜。
比如在醫(yī)學(xué)領(lǐng)域,模型在醫(yī)學(xué)癥狀的判斷上,涉及形成假設(shè)、驗證,隨后再形成新的假設(shè)。
即使在研究者沒有特別關(guān)注的領(lǐng)域,模型也進(jìn)展得很快,比如醫(yī)學(xué)、法律推理。
而他們也確信,在未來還會有其他還未測試過的領(lǐng)域,AI會有重大進(jìn)展。
OpenAI仍然注重安全
Mark Chen肯定地說,目前OpenAI仍然像早期那樣,致力于研究和安全。
為此,他管理著一個非常龐大的研究項目組合。并且一直在思考著應(yīng)該分配多少資源和力量來進(jìn)行探索性研究,而不是短期的即時項目。
不過,在這方面,OpenAI和很多大型基礎(chǔ)實驗室不同。
這些大實驗室有很多優(yōu)秀的研究者,可以沒有方向地進(jìn)行研究,自由地去做任何事。
但對OpenAI來說,他們比這些實驗室的規(guī)模都要小,因此需要更有方向性。
他們選擇了一些非常有信心的探索性項目,在這些領(lǐng)域內(nèi),給了研究者很大的自由度。
也就是說,OpenAI并不會進(jìn)行毫無目標(biāo)的探索,而且充分利用了自己規(guī)模小的優(yōu)勢。
現(xiàn)在是AI創(chuàng)業(yè)的好時機
OpenAI的研究者也認(rèn)為,現(xiàn)在是基于AI創(chuàng)立初創(chuàng)公司的好時機。
基礎(chǔ)模型的玩家專注的是通用性。
但像OpenAI這樣的公司,不可能涉足每一個垂直領(lǐng)域。
在特定領(lǐng)域定制一個模型,有很多空間和可能性。
現(xiàn)在,我們已經(jīng)可以看到一個豐富的初創(chuàng)企業(yè)生態(tài)系統(tǒng),這些企業(yè)在OpenAI的基礎(chǔ)上構(gòu)建了各種類型的應(yīng)用。
通常情況下,初創(chuàng)企業(yè)之所以能夠成功,是因為他們知道并堅信某個秘密,而市場上的其他人并不知道這個秘密。
在AI領(lǐng)域,實際上就是在一個不斷變化的技術(shù)棧上進(jìn)行構(gòu)建,我們無法預(yù)測下一個模型會何時出現(xiàn)。
表現(xiàn)最好的初創(chuàng)企業(yè),就是那些有直覺,在剛剛開發(fā)發(fā)揮作用的邊緣技術(shù)上進(jìn)行構(gòu)建的企業(yè),它們有一種生命力。
當(dāng)我們擁有AGI,就是相當(dāng)強大的形式,真正釋放了全部潛力。
想象一個人在一周內(nèi),就能創(chuàng)建一個帶來巨大價值的大型初創(chuàng)公司。
一個人在幾天內(nèi)產(chǎn)生巨大影響的想法,已經(jīng)不僅限于商業(yè)領(lǐng)域。
這種懷舊的感覺就像17世紀(jì),科學(xué)家們在探討物理學(xué)一樣。
我們能否回到那種氛圍,一個人能做出醫(yī)學(xué)、物理學(xué)或計算機科學(xué)領(lǐng)域的重大發(fā)現(xiàn)?
而這些,都是因為AI。
參考資料:
https://x.com/tsarnick/status/1860458274195386658