每經(jīng)記者:王琳每經(jīng)編輯:梁梟
“百模大戰(zhàn)”告一階段,國內(nèi)大模型領域開始進入到各行各業(yè)的應用探索階段。
12月6日,2024 AI+數(shù)字筆跡創(chuàng)新應用發(fā)展論壇在重慶舉行。《每日經(jīng)濟新聞》記者在現(xiàn)場注意到,阿里云副總裁、產(chǎn)業(yè)智能首席科學家張磊表示,大模型真正變成生產(chǎn)力可能會經(jīng)歷三個階段,最終將打破固有的生產(chǎn)關(guān)系,越往深層走,大模型作為一個新質(zhì)生產(chǎn)力產(chǎn)生的業(yè)務價值、社會價值將會越來越大。
圖片來源:每經(jīng)記者 王琳 攝
隨著大模型的應用進入到日常生活以及生產(chǎn)經(jīng)營領域,其安全短板也亟待解決。電子科技大學網(wǎng)絡空間安全學院院長、俄羅斯工程院外籍院士張小松認為,大模型的背后是機器學習,而機器學習存在脆弱性,需通過多種措施加以應對。
專家:大模型變成生產(chǎn)力有三個階段
過去的一年時間,國內(nèi)的大模型領域經(jīng)歷了“百模大戰(zhàn)”,各行各業(yè)的開源、閉源大模型層出不窮。
在張磊看來,大模型產(chǎn)業(yè)中長期可能有兩個比較重要的發(fā)展趨勢,一是從大模型利用或者需求的角度來說,肯定會呈現(xiàn)大模型越來越多、百花齊放的普惠效應趨勢;二是在整個大模型技術(shù)、基礎設施的供給上,全球范圍內(nèi)又將是一個比較極化的效應趨勢,即寡頭格局、強者愈強。
因此,張磊認為,在大模型的供給方面,需要生態(tài)圈里最頭部的廠商進行抱團,包括云計算廠商、運營商、硬件廠商等,從而形成一個完整的產(chǎn)業(yè)鏈。
與此同時,值得注意的是,隨著“百模大戰(zhàn)”帶來的投入越來越大,行業(yè)發(fā)展的重點也逐漸向應用層遷移。
張磊表示,大模型真正變成生產(chǎn)力可能有三個階段,第一個階段是沒有行業(yè)屬性的大模型應用,包括客服、問答、數(shù)據(jù)分析、報表總結(jié),文本、圖片生成,會議紀要生成,招聘輔助等,各行各業(yè)都可以用;第二個階段是大模型通過智能體、私域數(shù)據(jù)庫、小助手的方式進入有行業(yè)屬性的實際場景的業(yè)務流程中,開始為現(xiàn)有的業(yè)務流程進行降本提效;第三個階段是大模型將產(chǎn)生新的能力,開始去重構(gòu)業(yè)務流程,打破固有的生產(chǎn)關(guān)系。
而對于推動大模型產(chǎn)業(yè)的發(fā)展,張磊也給出了自己的建議,包括統(tǒng)籌算力、構(gòu)建高質(zhì)量的數(shù)據(jù)集、大力推動人才培養(yǎng)以及加速示范應用。
存算法脆弱性、算法漏洞等問題,專家支招
在大模型逐漸進入應用階段之際,大模型的數(shù)據(jù)安全和算法漏洞等問題也愈發(fā)受到各方關(guān)注。
張小松指出,大模型的實踐手段是機器學習。在機器學習的早期,存在幾個威脅:一是機器學習的算法非常脆弱,脆弱到甚至還不如幾歲的小孩,稍微把圖形圖像的內(nèi)容進行篡改就會發(fā)生識別錯誤;二是經(jīng)常有利用機器學習的錯誤,用來操縱大模型,例如有意喂錯誤樣本進行投毒攻擊或?qū)构簦ㄟ^有選擇性地學習進行逃逸攻擊。
“所以一是要對學習過程進行完整性的檢測,二是要對推理過程進行防錯性的檢測,三是要對機器學習內(nèi)容樣本進行隱私保護的處理!睆埿∷裳a充道。
值得一提的是,在人工智能時代,由深度偽造等帶來的挑戰(zhàn)也愈發(fā)顯現(xiàn),網(wǎng)絡安全中的身份認證問題也亟待解決。
《2024人工智能數(shù)字筆跡技術(shù)白皮書》在論壇現(xiàn)場發(fā)布。根據(jù)白皮書內(nèi)容,AI數(shù)字筆跡將成為多模態(tài)生物特征識別的重要手段之一,并作為數(shù)字交易中確權(quán)和授權(quán)的底層基礎技術(shù),在數(shù)字經(jīng)濟高質(zhì)量發(fā)展中發(fā)揮非常重要的作用。
“AI在提高數(shù)字筆跡識別準確率方面可發(fā)揮關(guān)鍵作用,通過卷積神經(jīng)網(wǎng)絡(CNN)等深度學習模型,未來本人數(shù)字筆跡識別的識別通過率將提高到99.99%!卑灼@示。
每日經(jīng)濟新聞