每經(jīng)記者:文巧每經(jīng)實習記者:岳楚鵬每經(jīng)編輯:蘭素英
當?shù)貢r間8月13日,OpenAI的聊天機器人賬號@ChatGPTapp發(fā)文宣布,自上周以來,ChatGPT上了一個新的GPT-4o模型。
根據(jù)該賬號的回帖,新上線的ChatGPT-4o模型并不是上周發(fā)布的API端GPT-4o 0806模型,目前該模型也對免費用戶開放,不過有使用次數(shù)的限制。
圖片來源:X
這一消息立刻引發(fā)了網(wǎng)友的熱議與猜測:難道這就是傳說中的“草莓”項目?之所以網(wǎng)友的熱情如此之高,是因為“草莓”項目的前身是Q*算法模型,Q*能夠解決棘手的科學(xué)和數(shù)學(xué)問題。如果AI模型掌握了數(shù)學(xué)能力,將擁有更強的推理能力,甚至與人類智能相媲美。
然而,在隨后的測試中,網(wǎng)友們發(fā)現(xiàn)新模型與原來的版本相比,沒有太大改善,也未能通過經(jīng)典的草莓單詞測試,不過在邏輯推理方面還是有所改進。
GPT-4o家族上新,“草莓”落地?
網(wǎng)友的激動并非毫無緣由。
新模型發(fā)布的前一周,OpenAI CEO阿爾特曼在X上發(fā)布了一張花園里的草莓照片,網(wǎng)友隨即聯(lián)想到了OpenAI團隊此前被爆出的一個名為“草莓(Strawberry)”的項目。但對于評論區(qū)的猜測,阿爾特曼本人沒有證實,也沒有否認,只是確認這張照片拍的是他現(xiàn)實中的花園。
而后,ChatGPT賬號發(fā)了一個草莓表情,OpenAI員工特里弗克里奇發(fā)了餐盤上的草莓圖片,以及爆料人@iruletheworldmo也頻繁更新,幾乎次次都與草莓相關(guān),這些似乎都指向了一個可能即將揭曉的重要時刻。
因此,當ChatGPT賬號宣布GPT-4o家族更新,網(wǎng)友們的情緒和討論也達到了高點,這一更新是否就是“草莓”的落地?
不過,隨著測試信息的披露,網(wǎng)友發(fā)現(xiàn),這一更新并沒能滿足他們的預(yù)期。而且,對于新模型的具體改進和新功能,OpenAI卻出奇地保持了沉默。
一系列測試顯示,新模型與之前的模型相比并沒有太大的改善。在經(jīng)典的草莓單詞測試中,新模型還是出現(xiàn)了錯誤。大多數(shù)測試者反饋稱,他們并沒有感受到明顯的性能提升。有的網(wǎng)友甚至直言根本分不清楚新版本和舊版本到底有什么區(qū)別。
圖片來源:X
但本次更新并非沒有亮點。一些用戶指出,新模型在邏輯推理方面有所改進,例如它不再輕易陷入邏輯循環(huán)。另外,新模型的響應(yīng)速度也比之前的版本快了不少。
有網(wǎng)友還總結(jié)出了新舊模型之間的三點差異:一是輸出風格略有不同,其次推理略有改進,不再陷入循環(huán),最后是更加親切,更愿意探索其存在的哲學(xué)層面(更少機器人化,更像Claude)。但是他也承認新舊模型之間的差異不大。
來源:X
AI發(fā)展背后的安全挑戰(zhàn)
對于這些評論,ChatGPT的回復(fù)是:“還有很多工作要做,我們正在努力。”至于新更新是否是備受關(guān)注的“草莓”,外界依然不得而知。
之所以網(wǎng)友們的熱情如此高漲,是因為“草莓”項目的前身是Q*算法模型,Q*能夠解決棘手的科學(xué)和數(shù)學(xué)問題。如果AI模型掌握了數(shù)學(xué)能力,將擁有更強的推理能力,甚至與人類智能相媲美。而這一點是目前的大語言模型還無法做到的。
盡管這一方法有可能使模型在智能上實現(xiàn)質(zhì)的飛躍,但其伴隨的危險性也不容忽視。正如斯坦福大學(xué)教授、STaR技術(shù)的開發(fā)者之一Noah Goodman所言:“這種技術(shù)潛力巨大,但同時也伴隨著相當大的風險。”
據(jù)外媒此前報道,“草莓”項目的訓(xùn)練涉及對經(jīng)過后期訓(xùn)練的模型(這些模型已經(jīng)針對特定用途或應(yīng)用進行了有效的后期訓(xùn)練)進行最終微調(diào)。這一過程類似于斯坦福大學(xué)的自學(xué)推理機(STaR)技術(shù)。STaR技術(shù)允許AI模型通過反復(fù)創(chuàng)建自己的訓(xùn)練數(shù)據(jù),“引導(dǎo)”自己進入更高的智能水平,理論上可以讓語言模型達到超越人類的智能水平。
值得注意的是,OpenAI此前多次因安全問題而受到質(zhì)疑。今年7月,OpenAI的一名內(nèi)部人士向美國證券交易委員會(SEC)投訴,指控公司通過非法限制性保密協(xié)議限制員工對外披露與公司技術(shù)潛在安全問題相關(guān)的信息。更早之前,OpenAI原超級對齊團隊負責人Jane Leike在離職后也指責公司忽視安全文化,只注重“閃亮的產(chǎn)品”而非安全。
而在8月9日,OpenAI發(fā)布了一篇關(guān)于安全性的博客文章,詳細介紹了公司在開發(fā)ChatGPT用戶的旗艦?zāi)P虶PT-4o時所做的安全努力,并探討了這些技術(shù)可能對社會帶來的風險。
OpenAI警告稱,用戶可能會與AI建立社會關(guān)系,進而減少對人際交往的需求這或許對孤獨的人有益,但也可能影響健康的社會關(guān)系。與AI的長期互動甚至可能影響社會規(guī)范,比如,模型允許用戶隨時打斷和“拿走麥克風”,這種行為雖然對AI來說理所當然,但在人際交往中卻顯得粗魯。
在談到GPT-4o的早期測試時,OpenAI透露,他們觀察到用戶與模型的互動語言開始出現(xiàn)微妙的變化,例如,表達共同紐帶的語言,“這是我們在一起的最后一天”等等。這種看似無害的行為,背后可能隱藏著更大的問題。
此外,OpenAI還提到,GPT-4o有時會無意間生成模仿用戶聲音的輸出。換句話說,它可能被用來冒充他人,從而被利用進行犯罪活動。
每日經(jīng)濟新聞