北京時間12月18日,OpenAI在第9天的直播發(fā)布上宣布,其o1大模型正式面向開發(fā)者開放,API(應(yīng)用程序編程接口)現(xiàn)已支持功能調(diào)用。另外,OpenAI還針對語音等場景的實際需求進行了降價。
值得注意的是,今年年中以來國內(nèi)AI大模型打起了“價格戰(zhàn)”,API價格一降再降,相比之下OpenAI的API價格一直居高不下。而本次發(fā)布,OpenAI也加入了“降價大軍”,其正式版o1模型的API與預(yù)覽版本相比思考成本下降了60%,GPT-4o的音頻成本也下降了60%。降價幅度最大的GPT-4o mini的音頻價格比當前價格便宜了10倍。
正式推出o1模型
OpenAI開發(fā)者平臺負責人Olivier Godement(右)、OpenAI后訓練團隊成員Michelle Pokrass(中)等進行直播發(fā)布
今日OpenAI的發(fā)布主要針對開發(fā)者,相比前幾次發(fā)布,本次OpenAI的直播人員進行了一次“輪換”,率先登場的是該公司后訓練(post-training)團隊的兩名成員,其公布的內(nèi)容主要包括面向開發(fā)者正式發(fā)布o1正式版模型。
直播人員Michelle Pokrass表示,正式版o1模型相比GPT-4o的各項能力均有升級,包括函數(shù)調(diào)用,結(jié)構(gòu)化輸出、編程以及數(shù)學能力,“除了能力變化之外,正式版o1模型比預(yù)覽版可以減少60%的token(直譯為語句,通常作為計價單位)消耗,這意味著它對于開發(fā)者的程序來說,更快、更便宜!
Michelle表示,雖然收到了很多開發(fā)者要求提供o1-pro的需求,但很可惜目前OpenAI還沒有發(fā)布o1-pro,“我們正在實驗室努力工作中,應(yīng)該很快就會推出!
針對音頻場景大幅降價
OpenAI研究人員Sean(中)等進行直播發(fā)布
在本次直播的“后半場”中,OpenAI研究人員Sean主要介紹了OpenAI的實時API,并著重介紹了其構(gòu)建實時語音場景中的應(yīng)用,讓開發(fā)者可以構(gòu)建自己的ChatGPT高級語言體驗。
在演示中,Sean將一枚硬幣大小的微控制器裝入了一個馴鹿玩具中,鏈接API后,馴鹿玩具就展示了流暢的實時交流能力。Sean表示,“這只是這項能力的冰山一角,想象一下,你可以把這枚微控制器裝入很多地方,比如眼鏡、房間攝像頭和麥克風里,就可以擁有具有上下文感知能力的語言助手,只要設(shè)置Wi-Fi和token消耗,它就可以鏈接了,我十分期待人們能用它來做什么!
同o1一樣,GPT-4o的token消耗也下降了60%,不過其價格也進行了同步下調(diào)!拔衣牭搅碎_發(fā)者們關(guān)于成本的反饋,我們正在降低成本,從現(xiàn)在開始,GPT-4o音頻的token將比以前便宜60%,而GPT-4o-mini(迷你版本)音頻的價格將比當前價格便宜10倍!監(jiān)penAI開發(fā)者平臺負責人Olivier Godement說。
此外,OpenAI還針對開發(fā)者推出了偏好微調(diào)(Preference Fine-Tuning)功能,該技術(shù)采用了一種名為“直接偏好優(yōu)化(DPO)”的創(chuàng)新方法,通過對比不同的AI回答,讓模型學會識別什么樣的回答更符合用戶的偏好,其目的是讓AI模型的個性化定制變得更加簡單和高效,更加貼合開發(fā)者的需求。
新京報貝殼財經(jīng)記者 羅亦丹 編輯 王進雨 校對穆祥桐