展會信息港展會大全

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-16 09:59:05   瀏覽:119次  

導讀:微軟研究院發(fā)布了最強小參數(shù)模型Phi-4。Phi系列模型至今已經(jīng)發(fā)布了5代,Phi-4也延續(xù)了之前的小參數(shù)模式只有140億。但在GPQA研究生水平、MATH數(shù)學基準中,分別達到了56.1和80.4超過了GPT-4o,同時也超過了同類型的開源模型Qwen 2.5 -14B和Llama-3.3-70B。而在美國數(shù)學競賽AMC的測試中,Phi-4達到了驚人的91.8分,再次超過了GeminiPro1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等 ......

微軟研究院發(fā)布了最強小參數(shù)模型Phi-4。

Phi系列模型至今已經(jīng)發(fā)布了5代,Phi-4也延續(xù)了之前的小參數(shù)模式只有140億。

但在GPQA研究生水平、MATH數(shù)學基準中,分別達到了56.1和80.4超過了GPT-4o,同時也超過了同類型的開源模型Qwen 2.5 -14B和Llama-3.3-70B。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

而在美國數(shù)學競賽AMC的測試中,Phi-4達到了驚人的91.8分,再次超過了GeminiPro1.5、GPT-4o、Claude 3.5 Sonnet、Qwen 2.5等知名開閉源模型,甚至整體性能可以與4050億參數(shù)的Llama-3.1相媲美。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

這也就是說,只要使用了高質(zhì)量數(shù)據(jù)和創(chuàng)新訓練方法,小參數(shù)模型同樣可以戰(zhàn)勝大參數(shù),但在部署、應用和推理方面極大減少了對AI算力和環(huán)境的要求。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

使用高質(zhì)量合成數(shù)據(jù)

Phi-4能以如此小的參數(shù)獲得巨大性能,使用高質(zhì)量合成訓練數(shù)據(jù)是關鍵環(huán)節(jié)之一。

傳統(tǒng)的大模型通常依賴于從網(wǎng)絡抓取或公開數(shù)據(jù)庫獲取的真實世界文本作為訓練數(shù)據(jù),這種方法雖然能夠提供豐富的信息來源,但也容易受到噪聲干擾和偏見影響。

Phi-4則使用了種子策劃、多Agent提示、自我修訂工作流、重寫和增強以及指令反轉(zhuǎn)等多種合成方法,有效解決了傳統(tǒng)無監(jiān)督數(shù)據(jù)集的缺點。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

種子策劃是合成數(shù)據(jù)生成的起點。Phi-4從多個領域提取高質(zhì)量的數(shù)據(jù)種子,為合成數(shù)據(jù)生成打下堅實基礎,使得能夠創(chuàng)建針對模型訓練目標的練習、討論和推理任務。策劃的種子包括從網(wǎng)頁、書籍和代碼庫中提取的文段和代碼片段,這些內(nèi)容展示了高復雜性、深度推理和教育價值。為了確保質(zhì)量,采用了兩階段過濾過程:首先是識別具有強教育潛力的頁面,然后是將選定的頁面分割成段落,對每個段落進行事實和推理內(nèi)容的評分。

此外,多Agent提示允許不同智能體之間進行交互對話,從而創(chuàng)造出更加多樣化且貼近真實應用場景的交流場景;而自我修訂工作流則鼓勵模型參與到自身的編輯過程中,以此提高輸出內(nèi)容的質(zhì)量和一致性。

通過改變?nèi)蝿彰枋龅姆绞,指令反轉(zhuǎn)可以增加模型處理不同類型問題的能力,進一步增強了其靈活性和適應性。

總體上,一共生成了50 種不同類型的合成數(shù)據(jù)集,涵蓋廣泛的主題和技能,總計約 400B未加權的高質(zhì)量token數(shù)據(jù)。

創(chuàng)新訓練方法

為了確保phi-4能在廣泛的任務類型上表現(xiàn)出色,研究人員使用了一系列針對性創(chuàng)新訓練方法,并根據(jù)實際需求調(diào)整各類數(shù)據(jù)的比例。尤其是針對長上下文理解能力的需求,phi-4增加了rope位置編碼的基礎頻率至25萬次,并相應地降低了最大學習率,以更好地適應更長的文本序列。

這種做法有效提升了模型對于復雜結構化信息的理解力,使其在面對需要綜合分析多個段落甚至整篇文章的問題時也能游刃有余。phi-4還特別注重了不同類型數(shù)據(jù)之間的平衡,避免某類數(shù)據(jù)過多導致其他方面性能下降的情況發(fā)生。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

而在 phi-4 的后訓練過程中,研究團隊采用了兩種形式的 DPO 數(shù)據(jù)對模型進行了強化訓練。第一種是基于人工標注的 SFT數(shù)據(jù),即由專家精心挑選并標記好的問答對;

第二種則是自動構建的 DPO 對,這種方法通過搜索重要的轉(zhuǎn)折點,將原始對話片段拆分成多個選項,并讓模型從中選擇最優(yōu)解。通過結合這兩種方式,phi-4 不僅學會了如何產(chǎn)生更符合預期的回答,還能夠在不同情境下靈活調(diào)整語氣和風格,從而提供更加個性化的交互體驗。

微軟發(fā)布Phi-4,最強小模型!參數(shù)極小、超GPT-4o

此外,phi-4還引入了一些創(chuàng)新性的后訓練方法,以增強其在特定領域內(nèi)的表現(xiàn)。例如,在 STEM領域問題解答方面,phi-4 利用了一個名為Math-Shepherd 的工具來進行驗證和強化學習。Math-Shepherd 可以自動檢查模型生成的答案是否正確,并且在必要時提供額外指導,幫助模型逐步掌握正確的解題思路。

這種方法有效地解決了傳統(tǒng)無監(jiān)督數(shù)據(jù)集中常見的邏輯不嚴密等問題,使得 phi-4 在數(shù)學競賽類題目上的準確率達到了驚人的80.4%,遠超其他同類產(chǎn)品。

此外,針對編程代碼評估任務,Phi-4 也采取了類似的方法,通過對大量開源項目中的代碼片段進行分析和總結,提升了其在該領域的執(zhí)行效率和準確性。

值得一提的是,微軟AI副總裁、phi系列模型的靈魂人物之一SébastienBubeck已經(jīng)離開了微軟加入了OpenAI。

本文素材來源微軟phi-4,如有侵權請聯(lián)系刪除

贊助本站

相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港