劃重點
019月26日,5G-A與AI融合產(chǎn)業(yè)論壇在北京國家會議中心成功舉行,探討移動AI時代如何推動實體經(jīng)濟和網(wǎng)絡(luò)服務(wù)創(chuàng)新融合。
02商湯科技、樂聚機器人等AI產(chǎn)業(yè)大咖進行了主題分享,展示了大模型、具身機器人等前沿技術(shù)。
03商湯科技副總裁李星冶表示,基模型能通過數(shù)據(jù)交互支持各行業(yè)開放任務(wù),預(yù)計2030年幫助中國提升超過26%的GDP。
04樂聚機器人CEO常琳博士認為,人形機器人具備獨特技術(shù)優(yōu)勢,將在各行業(yè)探索場景化應(yīng)用。
05專家一致認為,5G-A與AI融合將深刻改變生產(chǎn)生活方式,推動經(jīng)濟社會高質(zhì)量發(fā)展。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
【環(huán)球網(wǎng)科技綜合報道】9月26日下午,由IMT2020(5G)推進組(以下簡稱“推進組”)主辦的“5G-A與AI融合產(chǎn)業(yè)論壇”在北京國家會議中心成功舉行。本次論壇的主題是“擁抱移動AI試點,共筑5G-A與AI融合新動能”,商湯、樂聚、北大智元等AI產(chǎn)業(yè)的大咖進行了主題分享,探討在移動AI時代中,如何通過大模型、具身機器人等前沿技術(shù),共同推動實體經(jīng)濟的飛躍和網(wǎng)絡(luò)服務(wù)的創(chuàng)新融合。
日日新大模型 實現(xiàn)AIGC自由
李星冶 商湯科技數(shù)字文娛事業(yè)部副總裁
李星冶副總裁現(xiàn)場使用商湯日日新大模型進行了AIGC能力的現(xiàn)場演示,通過依次進行實時的文生文、文生圖、文生視頻等能力,并且為生成的視頻現(xiàn)場生成了AI數(shù)字人的解說。他表示,基模型能夠通過數(shù)據(jù)交互來支持各行各業(yè)的開放任務(wù),并且基于任務(wù)的反饋情況進行持續(xù)優(yōu)化。AGI的零樣本多模態(tài)思維鏈,具備擬人化的逐步深入思考的能力,與大模型結(jié)合能夠帶來巨大商業(yè)價值,預(yù)計在2030年幫助中國提升超過26%的GDP。商湯科技已經(jīng)基于日日新大模型,打造了服務(wù)多種行業(yè)的語言交互、內(nèi)容生成、場景重構(gòu)的應(yīng)用,支持在云側(cè)和端側(cè)的產(chǎn)品矩陣落地。尤其是在移動蜂窩網(wǎng)絡(luò)邁入5G-A全面商用的今天,端側(cè)模型的持續(xù)擴充和智能體的不斷升級,能夠服務(wù)于數(shù)十億體量的智能手機、智能車等移動性終端,為用戶提供一站式智能服務(wù),在日常生活中獲得多終端的一體化體驗,在工作生產(chǎn)過程中實現(xiàn)大規(guī)模的人機協(xié)作。行穩(wěn)方可致遠,商湯科技將與產(chǎn)業(yè)伙伴攜手推進行業(yè)標準,孵化端側(cè)AI的規(guī)模應(yīng)用,打造以人為本、可信可控、開放包容的人工智能體系。
人形機器人產(chǎn)業(yè)化探索
常琳 博士,樂聚機器人CEO
常琳博士表示,人形機器人具備獨特的技術(shù)優(yōu)勢,基于模型的全身動量控制算法能夠讓全尺寸機器人具備擬人化的快速行走和跑跳能力。在人工智能模型與5G-A網(wǎng)絡(luò)的加持下,樂聚機器人在滿足產(chǎn)業(yè)“兩高三強”的技術(shù)指標的同時能夠走向規(guī)模量產(chǎn),并且探索在各個行業(yè)的場景化應(yīng)用。在科研領(lǐng)域,VR數(shù)據(jù)采集、運動控制場景、模仿學(xué)習(xí)實驗等課題已經(jīng)得到初步驗證,正在催生全棧生態(tài)體系,助力不同技術(shù)方向的課題得到適配;在家庭服務(wù)領(lǐng)域產(chǎn),樂聚攜手海爾和中國移動共同實現(xiàn)對智能家居設(shè)備的控制,以及對簡單家務(wù)的自主識別和執(zhí)行;在工業(yè)領(lǐng)域,更是與亨通、蔚來等制造業(yè)頭部企業(yè)聯(lián)合,使用人形機器人將員工從枯燥、重復(fù)的質(zhì)檢和物流環(huán)節(jié)中解放出來;在智慧城市領(lǐng)域,能夠承擔城市巡邏和疏導(dǎo)、指引等公共服務(wù)職能。在移動AI時代,樂聚將與產(chǎn)業(yè)廣泛開展合作研發(fā),共同構(gòu)建人形機器人平臺生態(tài)。
具身智能技術(shù)趨勢分析
董豪 北大智元機器人聯(lián)合實驗室 主任
董豪主任表示,具身智能具備豐富的應(yīng)用前景和商用空間,隨著機器人執(zhí)行任務(wù)的精細化成都越來越高,負責機器人行為決策的核心算法也將會從初級的任務(wù)自動編排大模型演進為端到端具身大模型。為了能夠讓具身機器人走出實驗室,進入民眾的日常生活,以一個通用路徑實現(xiàn)所有肢體動作,需要將真實數(shù)據(jù)與海量的仿真數(shù)據(jù)進行結(jié)合。當前通過海量數(shù)據(jù)的仿真已經(jīng)能夠進行物體形狀抓取的模擬,但是在具備大量操作任務(wù)的場景下仍需人工實際操作來進行數(shù)據(jù)采集。因此,董主任提出使用Real2Sim2Real(從現(xiàn)實到模擬再到現(xiàn)實)的數(shù)據(jù)訓(xùn)練算法能夠大大加快具身大模型的訓(xùn)練效率,在數(shù)據(jù)成功率、泛化分級和具體環(huán)節(jié)的算法選擇上均具備明顯優(yōu)勢。開源硬件和軟件將會百花齊放,而仿真和實采技術(shù)則會實現(xiàn)平臺化,共同加速技術(shù)平權(quán)時代的到來。
本次論壇不僅展示了5G-A與AI融合的前沿技術(shù)與應(yīng)用成果,還促進了行業(yè)間的交流與合作。與會嘉賓一致認為,5G-A與AI的融合將深刻改變生產(chǎn)生活方式,賦能千行百業(yè),推動經(jīng)濟社會高質(zhì)量發(fā)展。未來,隨著技術(shù)的不斷演進和應(yīng)用場景的不斷拓展,5G-A與AI的融合將迎來更加廣闊的發(fā)展前景。