展會信息港展會大全

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-25 13:20:30   瀏覽:54次  

導(dǎo)讀:新智元報道編輯:Aeneas【新智元導(dǎo)讀】Scaling Law撞墻了嗎?OpenAI高級研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經(jīng)有o系列和GPT系列兩個模型,來讓模型繼續(xù)保持Scaling。最近,OpenAI高級研究副總裁Mark Chen在爐邊談話中,正式否認(rèn)「Scaling Law撞墻論」。他表示,并沒有看到Scaling Law撞墻,甚至OpenAI還有兩個范例o系列和GPT系列,來保持這種Scaling。用 ......

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

新智元報道

編輯:Aeneas

【新智元導(dǎo)讀】Scaling Law撞墻了嗎?OpenAI高級研究副總裁Mark Chen正式駁斥了這一觀點。他表示,OpenAI已經(jīng)有o系列和GPT系列兩個模型,來讓模型繼續(xù)保持Scaling。

最近,OpenAI高級研究副總裁Mark Chen在爐邊談話中,正式否認(rèn)「Scaling Law撞墻論」。

他表示,并沒有看到Scaling Law撞墻,甚至OpenAI還有兩個范例o系列和GPT系列,來保持這種Scaling。

用他的話說,「我們準(zhǔn)確地掌握了需要解決的技術(shù)挑戰(zhàn)」。

o1不僅是能力提升,也是安全改進(jìn)

從經(jīng)濟角度看,OpenAI已經(jīng)是最有價值的科技公司之一,因為他們?yōu)檎鎸嵱脩籼峁┝藬?shù)十億美元的價值。

兩年前,AI最前沿的任務(wù)還是小學(xué)數(shù)學(xué)題;而今天,它們已經(jīng)可以做最難的博士生題目。

因此,我們正處于這樣一個階段:AI模型能夠解決人類有史以來最困難的考試。

一旦這些模型解決了博士級別的問題,下一步,即使為世界提供實用性和價值。

當(dāng)所有基準(zhǔn)測試飽和之后,需要考慮的就是是否為最終用戶提供了價值。

雖然今天AI通過了基準(zhǔn)測試,但它并沒有完全捕捉到AGI應(yīng)該做的事。

好在,在過去一年里,OpenAI內(nèi)部發(fā)生了最令人興奮的進(jìn)展o1誕生了。

這不僅是一種能力上的提升,從根本上來說也是一種安全改進(jìn)。

為什么這么說?

想象我們試圖對一個模型進(jìn)行越獄,舊的GPT系統(tǒng)必須立即做出回應(yīng),所以可能更容易被觸發(fā)。

但當(dāng)我們有一個推理器時,模型卻會反思:這個問題是不是試圖讓我做一些與我要做的不一致的事?

此時,它獲得的額外思考和反思的時間,會讓它在很多安全問題上更穩(wěn)健。

這也符合OpenAI研究者最初的預(yù)期。

當(dāng)我們談到推理時,這是一個廣泛的概念,不僅僅用于數(shù)學(xué)或編程。

在編程中使用的推理方法,可能也適用于談判,或者玩一個很難的游戲。

而說到基準(zhǔn)測試,在安全性上也有同樣的挑戰(zhàn)。

安全性有點類似于這種對抗性攻擊框架。在這種情況下,攻擊是非常強烈的,因此我們在這方面還有很長的路要走。

如何到達(dá)五級AGI

AGI從一級到五級,關(guān)鍵推動因素是什么呢?

OpenAI提出的框架中,定義了AGI的不同級別,具體來說,就是從基本推理者發(fā)展到更智能的系統(tǒng),再到能在現(xiàn)實世界里采取行動的模型,最終到達(dá)更自主、完全自主的系統(tǒng)。

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

在這個過程中,穩(wěn)健性和推理能力是關(guān)鍵。

今天我們還不能依賴很多智能體系統(tǒng),原因是它們還不夠可靠。這就是OpenAI押注推理能力的原因。

OpenAI之所以大量投資,就是對此極有信心:推理能力將推動可靠性和穩(wěn)健性。

所以,我們目前正處于哪一階段呢?

OpenAI研究者認(rèn)為,目前我們正從第一階段向第二階段過渡,朝著更智能系統(tǒng)的方向發(fā)展。

雖然目前,許多智能體系統(tǒng)仍然需要人類監(jiān)督,但它們已經(jīng)變得越來越自主。模型可以自行原作,我們對于AI系統(tǒng)的信任也在逐漸增加。

合成數(shù)據(jù)的力量

合成數(shù)據(jù),就是不由人類直接產(chǎn)生的數(shù)據(jù),而是模型生成的數(shù)據(jù)。

有沒有什么好的方法,來生成用于訓(xùn)練模型的合成數(shù)據(jù)呢?

我們在數(shù)據(jù)稀缺或數(shù)據(jù)質(zhì)量較低的數(shù)據(jù)集中,可以看到合成數(shù)據(jù)的力量。

比如,在訓(xùn)練像DALL-E這樣的模型時,就利用了合成數(shù)據(jù)。

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

訓(xùn)練圖像生成模型的一個核心問題是,當(dāng)我們?nèi)タ椿ヂ?lián)網(wǎng)上帶標(biāo)題的圖片時,標(biāo)題和它所描述的圖片之間通常關(guān)聯(lián)性很低。

你可能會看到一張熱氣球的照片,而標(biāo)題并不是描述氣球本身,而是「我度過最好的假期」之類的。

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

在OpenAI研究者看來,在這種情況下,就可以真正利用合成數(shù)據(jù),訓(xùn)練一個能為圖片生成高保真標(biāo)題的模型。

然后,就可以為整個數(shù)據(jù)集重新生成捕獲了,OpenAI已經(jīng)證明,這種方法非常有效。

數(shù)據(jù)集中某方面較差的其他領(lǐng)域,也可以采用這個辦法。

Scaling Law沒有撞墻

最近很火熱的一個觀點是,Scaling Law已經(jīng)撞墻了,許多大型基礎(chǔ)實驗室都遇到了預(yù)訓(xùn)練的瓶頸。

果真如此嗎?

Mark Chen的觀點是,雖然的確在預(yù)訓(xùn)練方面遇到一些瓶頸,但OpenAI內(nèi)部的觀點是,已經(jīng)有了兩種非;钴S的范式,讓人生成無限希望。

他們探索了一系列模型的測試時Scaling范式,發(fā)現(xiàn)它們真的在迅速發(fā)展!

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

在推理模型的Scaling上,也沒有同樣的障礙。

其實,從早期入職OpenAI后,研究者就一直遇到多個技術(shù)挑戰(zhàn)。現(xiàn)在這些挑戰(zhàn)已經(jīng)非常具體,在Mark Chen看來,沒有什么是完全無法應(yīng)對的。

在OpenAI內(nèi)部,大家經(jīng)常說推理范式已經(jīng)達(dá)到了一定的成熟度。有些產(chǎn)品已經(jīng)有了與市場的契合點,雖然進(jìn)展仍然非常緩慢。

過去幾周內(nèi),最令人驚訝的使用場景,莫過于和o1進(jìn)行頭腦風(fēng)暴了。

o1和GPT-4的對比,讓人感受到了全新的深度:人類仿佛終于有了一個真正能互動的陪練伙伴,而非僅僅對自己的想法進(jìn)行評論。

它仿佛一個真正的實體,非常有參與感。

o1的推理直覺,是如何產(chǎn)生的

OpenAI的研究者,是如何想到o1中的推理直覺的呢?

這是一個集體努力的結(jié)果,不過他們也進(jìn)行了很長時間的工作,進(jìn)行了一些探索性的重點嘗試。

在兩年前,他們就覺得,AI雖然非常聰明,但在某些方面是不足的。不知為什么,總是感覺不太像AGI。

當(dāng)時他們假設(shè),原因在于,這是因為AI被要求立即做出回應(yīng)。

就算我們要求一個人類立即做出回應(yīng),ta也未必能給出最好的答案。

一個人可能會說,我需要思考一會,或者我需要做一些研究,明天再答復(fù)你。

就在這里,OpenAI研究者發(fā)現(xiàn)了亮點!

其實這里缺少的,是連接系統(tǒng)一和系統(tǒng)二之間的鴻溝。

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

快速思考有,知識也有,但卻沒有慢速思考,核心假設(shè)就在這里。

研究者做了許多不同嘗試,來解決這個挑戰(zhàn)。

一群非常具有探索精神的研究者,獲得了一些生命跡象。

圍繞這些跡象,他們組建了研究團隊,擴大的項目規(guī)模,投入了大量的數(shù)據(jù)生成工作。

從快速進(jìn)展中獲取預(yù)測結(jié)果,是整個案例中最難的部分。

開始時,就像登月計劃一樣,會遭遇很多失敗。

有三四個月,他們完全沒取得多少有意義的進(jìn)展。

好在最終,總會有人獲得重大突破。這也就給了他們足夠的動力來投入更多資源,往前推動一點。

從o1推出幾個月后,OpenAI和許多外部合作伙伴進(jìn)行了交流。

最酷的一件事就是,他們發(fā)現(xiàn)它比使用微調(diào)方法要好得多它已經(jīng)不太容易被問題難倒了。

很多應(yīng)用已經(jīng)超出了研究者之前關(guān)注的數(shù)學(xué)和科學(xué)領(lǐng)域。當(dāng)看到AI的推理能力能泛化到這些領(lǐng)域,真的令人驚喜。

比如在醫(yī)學(xué)領(lǐng)域,模型在醫(yī)學(xué)癥狀的判斷上,涉及形成假設(shè)、驗證,隨后再形成新的假設(shè)。

即使在研究者沒有特別關(guān)注的領(lǐng)域,模型也進(jìn)展得很快,比如醫(yī)學(xué)、法律推理。

而他們也確信,在未來還會有其他還未測試過的領(lǐng)域,AI會有重大進(jìn)展。

OpenAI仍然注重安全

Mark Chen肯定地說,目前OpenAI仍然像早期那樣,致力于研究和安全。

為此,他管理著一個非常龐大的研究項目組合。并且一直在思考著應(yīng)該分配多少資源和力量來進(jìn)行探索性研究,而不是短期的即時項目。

OpenAI怒斥Scaling撞墻論!o1已產(chǎn)生推理直覺潛力巨大

不過,在這方面,OpenAI和很多大型基礎(chǔ)實驗室不同。

這些大實驗室有很多優(yōu)秀的研究者,可以沒有方向地進(jìn)行研究,自由地去做任何事。

但對OpenAI來說,他們比這些實驗室的規(guī)模都要小,因此需要更有方向性。

他們選擇了一些非常有信心的探索性項目,在這些領(lǐng)域內(nèi),給了研究者很大的自由度。

也就是說,OpenAI并不會進(jìn)行毫無目標(biāo)的探索,而且充分利用了自己規(guī)模小的優(yōu)勢。

現(xiàn)在是AI創(chuàng)業(yè)的好時機

OpenAI的研究者也認(rèn)為,現(xiàn)在是基于AI創(chuàng)立初創(chuàng)公司的好時機。

基礎(chǔ)模型的玩家專注的是通用性。

但像OpenAI這樣的公司,不可能涉足每一個垂直領(lǐng)域。

在特定領(lǐng)域定制一個模型,有很多空間和可能性。

現(xiàn)在,我們已經(jīng)可以看到一個豐富的初創(chuàng)企業(yè)生態(tài)系統(tǒng),這些企業(yè)在OpenAI的基礎(chǔ)上構(gòu)建了各種類型的應(yīng)用。

通常情況下,初創(chuàng)企業(yè)之所以能夠成功,是因為他們知道并堅信某個秘密,而市場上的其他人并不知道這個秘密。

在AI領(lǐng)域,實際上就是在一個不斷變化的技術(shù)棧上進(jìn)行構(gòu)建,我們無法預(yù)測下一個模型會何時出現(xiàn)。

表現(xiàn)最好的初創(chuàng)企業(yè),就是那些有直覺,在剛剛開發(fā)發(fā)揮作用的邊緣技術(shù)上進(jìn)行構(gòu)建的企業(yè),它們有一種生命力。

當(dāng)我們擁有AGI,就是相當(dāng)強大的形式,真正釋放了全部潛力。

想象一個人在一周內(nèi),就能創(chuàng)建一個帶來巨大價值的大型初創(chuàng)公司。

一個人在幾天內(nèi)產(chǎn)生巨大影響的想法,已經(jīng)不僅限于商業(yè)領(lǐng)域。

這種懷舊的感覺就像17世紀(jì),科學(xué)家們在探討物理學(xué)一樣。

我們能否回到那種氛圍,一個人能做出醫(yī)學(xué)、物理學(xué)或計算機科學(xué)領(lǐng)域的重大發(fā)現(xiàn)?

而這些,都是因為AI。

參考資料:

https://x.com/tsarnick/status/1860458274195386658

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港