本報(bào)記者 李靜 深圳報(bào)道
不用一行代碼,只用人類的自然語言,能開發(fā)出一款游樂園排隊(duì)助手應(yīng)用嗎?
隨著大模式和生成式AI的發(fā)展,這個(gè)答案是肯定的。在今年百度舉辦的一場(chǎng)創(chuàng)業(yè)大賽中,一支參賽隊(duì)伍利用百度AI原生應(yīng)用開發(fā)工具AppBuilder,用自然語言、三步就開發(fā)出了AI原生應(yīng)用,并拿到了10萬元的大獎(jiǎng)。
據(jù)介紹,以這款游樂場(chǎng)排隊(duì)助手為例,打開AppBuilder的開發(fā)界面,第一步先給應(yīng)用起名“游樂場(chǎng)排隊(duì)助手”,第二步填寫角色指令,包括調(diào)用代碼解釋器、算出在固定時(shí)間內(nèi)的最佳組合、輸出結(jié)果等;第三步再插入需要的工具組件。這樣,在零代碼的情況下,一個(gè)應(yīng)用就生成了。
“得益于強(qiáng)大的基礎(chǔ)大模型,有了很多低門檻,甚至零門檻的開發(fā)工具,開發(fā)者的生產(chǎn)力大大提高了。”百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏在Create 2024百度AI開發(fā)者大會(huì)上帶來了包括AgentBuilder、AppBuilder和ModelBuilder三大開發(fā)工具,涵蓋了智能體開發(fā)工具、AI原生應(yīng)用開發(fā)工具和各種尺寸的模型定制工具。
李彥宏說:“AI正在掀起一場(chǎng)創(chuàng)造力革命,未來開發(fā)應(yīng)用就像拍個(gè)短視頻一樣簡(jiǎn)單,人人都是開發(fā)者、創(chuàng)造者。”
未來大型的AI原生應(yīng)用是MoE架構(gòu)
大模型本身并不直接創(chuàng)造價(jià)值,基于大模型開發(fā)出來的AI應(yīng)用才能滿足真實(shí)的市場(chǎng)需求。
李彥宏分享了基于大模型開發(fā)AI原生應(yīng)用的具體思路和工具,以及對(duì)大模型未來發(fā)展的思考。
第一,他認(rèn)為未來大型的AI原生應(yīng)用基本都是MoE架構(gòu),即大小模型的混用,不依賴一個(gè)模型解決所有問題。
第二,小模型推理成本低,響應(yīng)速度快,在一些特定場(chǎng)景中,經(jīng)過SFT精調(diào)后的小模型,它的使用效果可以媲美大模型。李彥宏表示:“這就是我們發(fā)布ERNIE Speed、ERNIE Lite、ERNIE Tiny三個(gè)輕量模型的原因。我們通過大模型,壓縮蒸餾出來一個(gè)基礎(chǔ)模型,然后再用數(shù)據(jù)去訓(xùn)練,這比從頭開始訓(xùn)練小模型的效果要好很多,比基于開源模型訓(xùn)練出來的模型效果更好,速度更快,成本更低。”
第三,智能體可能是未來離每個(gè)人最近、最主流的大模型使用方式,基于強(qiáng)大的基礎(chǔ)模型,智能體可以批量生成,應(yīng)用在各種各樣的場(chǎng)景。隨著智能體能力的提升,會(huì)不斷催生出大量的AI原生應(yīng)用。智能體機(jī)制包括理解、規(guī)劃、反思和進(jìn)化,它讓機(jī)器像人一樣思考和行動(dòng),可以自主完成復(fù)雜任務(wù),在環(huán)境中持續(xù)學(xué)習(xí)、實(shí)現(xiàn)自我迭代和自我進(jìn)化。在一些復(fù)雜的系統(tǒng)中,還可以讓不同的智能體互動(dòng),相互協(xié)作,更高質(zhì)量地完成任務(wù)。
“這是我們根據(jù)過去一年的實(shí)踐,踩了無數(shù)的坑,交了高昂的學(xué)費(fèi)換來的。”李彥宏強(qiáng)調(diào)道。
在這次大會(huì)之前,李彥宏還發(fā)出內(nèi)部信解釋百度文心大模型為什么不對(duì)外開源。在本次大會(huì)上,李彥宏再度表示,未來開源模型會(huì)越來越落后。
“開發(fā)者通過文心4.0降維裁剪出來的更小尺寸模型,比直接拿開源模型調(diào)出來的模型,在同等尺寸下的效果明顯更好;同等效果下,成本明顯更低。”李彥宏說道,“大家以前用開源覺得開源便宜,其實(shí)在大模型場(chǎng)景下,開源是最貴的。所以開源模型會(huì)越來越落后。”
底層技術(shù)之變
百度文心一言自去年3月16日發(fā)布,到今天已有一年零一個(gè)月的時(shí)間。據(jù)介紹,文心一言用戶數(shù)已經(jīng)突破了2億,API日均調(diào)用量也突破了2億,客戶數(shù)達(dá)到了8.5萬,利用千帆平臺(tái)開發(fā)的AI原生應(yīng)用數(shù)超過了19萬。
“近幾個(gè)月來,文心大模型在代碼生成、代碼解釋、代碼優(yōu)化等通用能力方面實(shí)現(xiàn)了進(jìn)一步的顯著提升,達(dá)到國際領(lǐng)先水平。”李彥宏表示,“相比一年前,文心大模型的算法訓(xùn)練效率提升到了原來的5.1倍,周均訓(xùn)練有效率達(dá)到98.8%,推理性能提升了105倍,推理的成本降到了原來的1%。也就是說,客戶原來一天調(diào)用1萬次,同樣成本現(xiàn)在一天可以調(diào)用100萬次。”
當(dāng)編程不再是少數(shù)經(jīng)過專業(yè)訓(xùn)練的程序員的特權(quán),不再是面向過程、面向?qū)ο,而是面向需求后,這種革命性變化將徹底顛覆原有的操作系統(tǒng)。百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖說道:“新的操作系統(tǒng)的內(nèi)核中,底層的硬件從以CPU算力為主變成以GPU算力為主,而且第一次增加了硬件和軟件以外的資源,也就是被大模型壓縮的世界知識(shí)。操作系統(tǒng)管理的對(duì)象也因此發(fā)生了本質(zhì)的變化,從管理進(jìn)程、管理微服務(wù),變成了管理智能。這個(gè)全新的操作系統(tǒng)需要能管理萬卡規(guī)模的集群,需要極致發(fā)揮GPU、CPU的性能,需要高速互聯(lián),還需要有強(qiáng)大的大模型作為核心引擎,不僅是語言大模型,還有視覺大模型。”
尤其值得關(guān)注的是,大模型高速發(fā)展的時(shí)代,強(qiáng)大的模型能力需要巨大的算力甚至電力,算力的有效管理至關(guān)重要。國內(nèi)還面臨一個(gè)特殊情況,就是芯片供應(yīng)的不確定性。“這必然會(huì)導(dǎo)致多款芯片并存的格局,短期看,這是大家被動(dòng)接受的局面,長期看,這一定是大家主動(dòng)選擇的結(jié)果。”沈抖說道,我國算力的發(fā)展需要擺脫對(duì)單一芯片的依賴,實(shí)現(xiàn)更優(yōu)的成本,保證更有彈性的供應(yīng)鏈。
然而,不同廠商的芯片差異很大,即使都來自同一廠商,不同代際的芯片差距也很大。要想在大模型訓(xùn)練、特別是單一訓(xùn)練任務(wù)上管理好多個(gè)廠商、不同代際的芯片,是非常困難的事情。
沈抖介紹道,全新發(fā)布的新一代智能計(jì)算操作系統(tǒng)萬源已經(jīng)解決了這些難題,實(shí)現(xiàn)了單一訓(xùn)練任務(wù)下不同廠商芯片的混合訓(xùn)練,且百卡規(guī)模性能損失不超過3%,千卡規(guī)模性能損失不超過5%。最大程度上屏蔽硬件之間的差異,幫助用戶擺脫單一芯片的依賴,實(shí)現(xiàn)更優(yōu)成本,打造更具彈性的供應(yīng)鏈體系。
“未來,我們會(huì)進(jìn)一步開放操作系統(tǒng)層面的生態(tài)合作。向上,開放更多的能力和接口,開發(fā)者可以非常簡(jiǎn)單地開發(fā)應(yīng)用。向左,大家可以用萬源做基礎(chǔ),打造適合自己的垂直行業(yè)的操作系統(tǒng)。向右,可以把萬源直接部署在自己的智算中心,享受穩(wěn)定、安全、高效的智能計(jì)算平臺(tái)。向下,我們會(huì)適配更多的芯片,為開發(fā)者進(jìn)一步隱去異構(gòu)集群的復(fù)雜性,讓不同的芯片都能發(fā)揮最大的效能。”沈抖說道。
(編輯:張靖超 審核:李正豪 校對(duì):張國剛)