陳奇杰 任曉寧/文 12月26日,阿里巴巴集團(tuán)和中國電子技術(shù)標(biāo)準(zhǔn)化研究院聯(lián)合召開大模型技術(shù)發(fā)展與治理創(chuàng)新研討會。浙江大學(xué)百人計(jì)劃研究員褚志軒在會上表示,智能體的安全問題可能比單純的大模型更加嚴(yán)重,管控起來也更復(fù)雜。
褚志軒說,當(dāng)前用戶使用大模型進(jìn)行對話,一般會輸出一個結(jié)果,決定權(quán)在用戶,他們可以采納,也可以不用。相比之下,智能體將會直接執(zhí)行更加真實(shí)的任務(wù),智能體是大模型最重要的落地形式,未來可能會被應(yīng)用到千行百業(yè)。
褚志軒進(jìn)一步說明,當(dāng)前使用較多的聊天問答場景,其實(shí)還是一個比較簡單的方式應(yīng)用大模型。智能體能夠完成更加復(fù)雜的工作。例如,在醫(yī)療領(lǐng)域的話,智能體可能會先給病人做診斷,然后告知病人結(jié)果,或是給病人推薦用藥。這意味著,管控智能體既要對大模型進(jìn)行管控,也要在垂直領(lǐng)域做一些特殊的管控。
褚志軒認(rèn)為,對智能體的管控需要從兩個方面著手:一方面是從技術(shù)層面保障智能體安全可信。這并非需要我們完全介入到智能體所有的工作流程中,因?yàn)橄褶k公軟件釘釘,里面有很多智能體,應(yīng)用比較廣泛,人力可能難以完全監(jiān)控到所有漏洞。從技術(shù)上而言,未來更可能會是由智能體來管理智能體。因?yàn)槊總智能體都可以被定義為不同的角色,它既可以是一個執(zhí)行者去完成任務(wù),也可以是一個管理執(zhí)行者的監(jiān)察者。另一方面則是完善治理規(guī)范,在智能體的發(fā)展過程中,推出規(guī)章制度規(guī)范其應(yīng)用,出現(xiàn)問題就可以按此進(jìn)行修正。
智能體被視為大模型落地的“最后一公里”,它以大模型為大腦,具備思維能力,且通過傳感器、工具和函數(shù)接口擁有感知能力和執(zhí)行能力。
目前,美國人工智能研究公司OpenAI、谷歌、阿里巴巴和百度等一眾國內(nèi)外大模型廠商都在積極布局智能體。例如,12月12日,谷歌推出大模型Gemini 2.0 ,并且開發(fā)了多個領(lǐng)域的智能體。百度、字節(jié)跳動等公司相繼推出協(xié)助開發(fā)者構(gòu)建智能體的平臺。11月,百度透露目前運(yùn)用文心智能體平臺的開發(fā)者已經(jīng)突破80萬,平臺上智能體的數(shù)量和今年6月相比提升了310%。