劃重點
01OpenAI的AI模型Orion在性能質量提升程度上遠小于從GPT-3到GPT-4的飛躍,可能導致AI模型的改進速度放緩。
02為此,OpenAI成立了一個“基礎”團隊,研究能讓AI模型保持改進的新方法。
03公司計劃基于AI合成數據訓練Orion,并在后期訓練中對模型作出更多改進。
04目前,OpenAI正在推進Orion的安全測試,計劃于明年年初發(fā)布這一模型。
05與此同時,OpenAI安全系統(tǒng)團隊負責人翁荔宣布將離開公司,探索新的領域。
以上內容由大模型生成,僅供參考
《科創(chuàng)板日報》11月10日訊 高質量數據不夠用,拖累AI模型改進速度OpenAI這位AI領頭羊又遇到了難題。
一些測試過Orion的OpenAI員工發(fā)現(xiàn),雖然Orion的性能超過了OpenAI現(xiàn)有的所有模型,但其性能質量提升程度遠遠小于從GPT-3到GPT-4的飛躍。這意味著,隨著高質量數據趨于有限,AI模型的改進速度可能會放緩。
不僅如此,Orion的訓練中涉及來自舊模型(例如GPT-4與一些推理模型)的AI生成數據,這可能導致其重現(xiàn)舊模型的一些行為。
為此,OpenAI成立了一個“基礎”團隊,以在高質量新數據供應減少的情況下,研究能讓AI模型保持改進的新方法。據悉,公司計劃基于AI合成數據訓練Orion,并在后期訓練中對模型作出更多改進。
目前,OpenAI正在推進Orion的安全測試,計劃于明年年初發(fā)布這一模型,其可能會打破“GPT-X”的命名慣例,以反映模型開發(fā)的變化。
值得注意的是,OpenAI在今年收購了Chat.com域名,該域名已重定向至OpenAI的AI驅動聊天機器人ChatGPT。
“撞上數據墻”
早在2020年,OpenAI就曾在一篇論文中提出Scaling law定律,意指大模型的最終性能主要與計算量、模型參數量和訓練數據量三者的大小相關,而與模型的具體結構(層數/深度/寬度)基本無關。換言之,僅僅增加模型規(guī)模和訓練數據,就能顯著提升人工智能能力,而無需取得根本性的算法突破。
AI界許多公司都一度將Scaling Law奉為圭臬,但如今,也有越來越多的質疑聲出現(xiàn)。
Meta AI人工智能研究院(FAIR)研究員及高級經理田淵棟指出,“我畫過一張圖,一開始數據量越大,模型性能表現(xiàn)越好,但模型離人類越近就越難獲得新的數據,模型就越來越難以改進,最后總會有些corner case(邊角案例,即無法想到的或不常見的案例)解決不了,這是data driven(數據驅動)最大的問題!
非營利研究機構Epoch AI在今年7月更新的一篇論文中指出,未來數年內,(原始)數據增長的速度將難以支撐AI大模型擴展發(fā)展的速度,在2026-2032年之間的某個時間點,數據存量將耗盡。
實際上,OpenAI已不是第一次遭遇“數據資源不足”的問題。此前已有媒體報道指出,在訓練GPT-5時,OpenAI因文本數據不足,正在考慮使用YouTube公開視頻轉錄出的文本。
如今OpenAI再度碰上數據資源難題,甚至因此影響到了新模型進展!暗@代表‘天塌了,’”The Information這篇文章的作者之一Amir Efrati指出,OpenAI正在作出調整,或許將有新的Scaling Law取代舊Scaling Law。
值得一提的,當地時間11月9日,OpenAI安全系統(tǒng)團隊負責人翁荔(Lilian Weng)宣布將離開已經工作了近7年的OpenAI。她公開分享了發(fā)給團隊的離職信,但其中并未言明具體離職原因及未來職業(yè)去向,僅表示“是時候重新出發(fā),探索新的領域了”。
(科創(chuàng)板日報)