IT之家 2 月 16 日消息,上海交通大學(xué)、上海 AI Lab、香港大學(xué)、浙江大學(xué)、香港中文大學(xué)于 2 月 12 日公布了一項 Learning Humanoid Standing-up Control across Diverse Postures(學(xué)習(xí)跨多種姿勢的人形站立控制)新成果,首次賦予人形機器人在多種復(fù)雜場景下自主站起的能力。
直立控制對人形機器人至關(guān)重要,現(xiàn)有方法要么局限于忽略硬件約束的模擬,要么依賴于預(yù)定義的地面特定運動軌跡,無法實現(xiàn)現(xiàn)實場景中不同姿勢的站立。為了彌合這一差距,研究團隊提出了具身智能控制學(xué)習(xí)算法 HoST(Humanoid Standing-up Control、人形站立控制),這是一個從零開始學(xué)習(xí)站立控制的強化學(xué)習(xí)框架,能夠?qū)崿F(xiàn)跨不同姿勢模擬到現(xiàn)實的遷移。
在基于模擬的訓(xùn)練后,學(xué)習(xí)到的控制策略直接部署在宇樹 Unitree G1 人形機器人上,測試場景包括木地板、草地斜坡、倚靠大樹、坐在臺階上、石子路、靠在椅子上等。實驗結(jié)果表明,機器人在各種實驗室和戶外環(huán)境中實現(xiàn)了平穩(wěn)、穩(wěn)定的站立動作。