展會信息港展會大全

OpenAI CEO罕見認錯:DeepSeek是非常好的模型,將考慮跟進開源!
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-02-04 18:05:20   瀏覽:151次  

導讀:芯智訊2025-02-01 22:14發(fā)布于廣東芯智訊官方賬號北京時間2月1日凌晨,為應對DeepSeek-R1所帶來的競爭,OpenAI正式發(fā)布了o3-mini模型,這也是OpenAI推理系列中最新、最具成本效益的模型,并且已在ChatGPT和API中開放使用。據(jù)悉,該模型在數(shù)學代碼等基準測試中刷新SOTA,相關測試中o3-mini(high)在準確率和校準誤差(Calibration Error)均是最優(yōu)。△o3-mini與o1在AIME競賽數(shù) ......

芯智訊

2025-02-01 22:14發(fā)布于廣東芯智訊官方賬號

OpenAI CEO罕見認錯:DeepSeek是非常好的模型,將考慮跟進開源!

北京時間2月1日凌晨,為應對DeepSeek-R1所帶來的競爭,OpenAI正式發(fā)布了o3-mini模型,這也是OpenAI推理系列中最新、最具成本效益的模型,并且已在ChatGPT和API中開放使用。據(jù)悉,該模型在數(shù)學代碼等基準測試中刷新SOTA,相關測試中o3-mini(high)在準確率和校準誤差(Calibration Error)均是最優(yōu)。

OpenAI CEO罕見認錯:DeepSeek是非常好的模型,將考慮跟進開源!

△o3-mini與o1在AIME競賽數(shù)學的得分對比

據(jù)介紹,o3-mini的價格比OpenAI o1-mini便宜63%,比滿血版o1便宜93%。開發(fā)者可根據(jù)需求選擇高、中、低三種推理強度,讓o3-mini在處理復雜問題時進行深度思考,平衡速度和準確性。

具體來說,目前ChatGPT免費用戶首次可以體驗一個有限速率的o3-mini版本,速率限制與現(xiàn)有的 GPT-4o 限制類似;Plus用戶可選擇o3-mini-high更高智能版本;每月支付200美元的 Pro 用戶可無限使用o3-mini和o3-mini-high;API層面,o3-mini輸入1.10美元/百萬token、輸出4.40美元/百萬token,價格比o1-mini便宜63%,比滿血版o1便宜93%,但仍是GPT-4o mini的7倍左右。

OpenAI表示,o3-mini的發(fā)布是在追求高效能智能技術道路上的又一重要里程碑。通過優(yōu)化科學(Science)、技術(Technology)、工程(Engineering)和數(shù)學(Mathematics)領域的推理能力,同時保持較低的成本,讓高質量AI技術變得更加平易近人。

OpenAI聯(lián)合創(chuàng)始人、首席執(zhí)行官山姆奧爾特曼在o3-mini發(fā)布后的在線問答中透露,“在未來幾周,滿血版o3即將上線。”

談及對于DeepSeek的看法,奧爾特曼表示,“它(DeepSeek)確實是一個非常好的模型,OpenAI會開發(fā)出更好的模型,但我們不會像往年那樣保持那么大的領先優(yōu)勢了。”

奧爾特曼還罕見地承認了自己的錯誤,并表示OpenAI正在討論一個新的開源策略!拔覀人認為,在這個問題上我們站錯了隊,需要想出一個不同的開源策略;不是OpenAI的每個人都持有這種觀點,而且這也不是我們目前的最高優(yōu)先級。”

OpenAI CEO罕見認錯:DeepSeek是非常好的模型,將考慮跟進開源!

近期,中國AI技術廠商DeepSeek推出的V3和 R1 兩款開源 AI 模型都顛覆了業(yè)界對于“AI算力需求”的看法。特別是DeepSeek推出的推理大模型DeepSeek-R1,其不僅性能比肩OpenAI o1 ,并且其所需的訓練成本可能只有后者的約1/20(僅用了2048 個 H800 GPU,花了兩個月的時間訓練完成,僅花費了約558萬美元),API的定價更是只有后者的約1/28,相當于使用成本降低了約97%。

也就是說,DeepSeek采用并不先進的AI芯片,以更低的算力要求和更低的成本,達到了OpenAI等美國AI技術廠商的頂級AI大模型的效果。這一成就被認為對美國的人工智能領導地位構成威脅,不僅引發(fā)了OpenAI、Meta、谷歌等眾多大模型廠商恐慌,還引發(fā)了英偉達等AI芯片企業(yè)的價值重估和股價大跌。

然而,據(jù)SemiAnalysis,與外界認為DeepSeek公司擁有5萬張H100 GPU計算卡看法不同,該機構認為,DeepSeek堆積了6萬張英偉達GPU卡,其中包括1萬張A100、1萬張H100、1萬張“特供版”H800、3萬張“特供版”H20,算力資本支出的總體擁有成本(TCO)超過140億元,達19.96億美元(約合人民幣143.45億元)。DeepSeek 的總服務器資本支出約為 16 億美元,運營此類集群的成本高達 9.44 億美元。

OpenAI CEO罕見認錯:DeepSeek是非常好的模型,將考慮跟進開源!

但是,從DeepSeek官方公布的數(shù)據(jù)來看,其DeepSeek-V3/R1的訓練僅用了約2080張英偉達H800加速卡,這部分的芯片投資大約為4000萬美元左右。如果DeepSeek官方公布的數(shù)據(jù)無誤,同時SemiAnalysis對于DeepSeek囤積了6萬張英偉達GPU加速卡的分析也是正確的話,那么這也意味著DeepSeek現(xiàn)有的AI算力硬件足以支撐其后續(xù)研發(fā)多代性能更為強大的AI大模型。

編輯:芯智訊-浪客劍

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港