展會信息港展會大全

外媒:麻省理工學院推出新模型,借鑒大型語言模式訓練機器人
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-04 10:46:21   瀏覽:75次  

導讀:11月4日,據(jù)TechCrunch消息,近日,麻省理工學院展示了一種全新的機器人訓練模型,該模型突破了傳統(tǒng)方法依賴標準數(shù)據(jù)集的局限,轉(zhuǎn)而模仿大型語言模型(LLM)所使用的大規(guī)模信息處理方式,為機器人學習新技能提供了全新的途徑。在傳統(tǒng)模仿學習中,機器人通過跟隨執(zhí)行任務的人類或其他代理進行學習。然而,這種方法在面對如照明變化、不同環(huán)境或新障礙等小挑戰(zhàn)時,往往因數(shù)據(jù)不足 ......

11月4日,據(jù)TechCrunch消息,近日,麻省理工學院展示了一種全新的機器人訓練模型,該模型突破了傳統(tǒng)方法依賴標準數(shù)據(jù)集的局限,轉(zhuǎn)而模仿大型語言模型(LLM)所使用的大規(guī)模信息處理方式,為機器人學習新技能提供了全新的途徑。

在傳統(tǒng)模仿學習中,機器人通過跟隨執(zhí)行任務的人類或其他代理進行學習。然而,這種方法在面對如照明變化、不同環(huán)境或新障礙等小挑戰(zhàn)時,往往因數(shù)據(jù)不足而難以適應。為了克服這一難題,麻省理工學院的研究團隊借鑒了GPT-4等大型語言模型的強力數(shù)據(jù)方法,探索了一種新的解決方案。

“在語言領(lǐng)域,數(shù)據(jù)以句子的形式存在,”新論文的主要作者王立睿指出,“但在機器人領(lǐng)域,數(shù)據(jù)具有高度的異質(zhì)性。如果我們想以類似語言模型的方式進行預訓練,就需要構(gòu)建一種全新的架構(gòu)!

為此,研究團隊引入了異構(gòu)預訓練變壓器(HPT)這一創(chuàng)新架構(gòu)。HPT能夠整合來自不同傳感器和環(huán)境的多樣信息,并利用變壓器技術(shù)將這些數(shù)據(jù)匯總到訓練模型中。值得注意的是,變壓器的規(guī)模越大,其輸出效果也越好。

在使用該模型時,用戶只需輸入機器人的設(shè)計、配置以及期望完成的任務,系統(tǒng)便能根據(jù)這些信息為機器人提供所需的技能。這一創(chuàng)新不僅提高了機器人學習的效率和靈活性,也為實現(xiàn)更廣泛、更復雜的機器人應用奠定了堅實基礎(chǔ)。

卡內(nèi)基梅隆大學副教授戴維赫爾德在評價這項研究時表示:“我們的夢想是擁有一個通用的機器人大腦,用戶可以直接下載并使用它,而無需進行任何額外訓練。雖然目前我們還處于這一愿景的早期階段,但我們將持續(xù)努力,希望借助規(guī);膬(yōu)勢,在機器人策略方面取得像大型語言模型那樣的突破性進展!保ㄎ闹牵

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港