5月29日消息,今日上午,國家地方共建人形機器人創(chuàng)新中心聯(lián)合復旦大學未來信息創(chuàng)新學院,正式發(fā)布了全球首款生成式人形機器人運動大模型—— “龍躍”(MindLoongGPT)。
龍躍大模型以“自然語言驅(qū)動”為核心,構(gòu)建了從多模態(tài)輸入到高保真動作生成的完整閉環(huán),顛覆傳統(tǒng)運動控制范式。
也就是說,用戶無需學習專業(yè)術(shù)語或操作復雜軟件,僅需像與人類對話一樣發(fā)出指令,例如“以優(yōu)雅的姿勢遞上一杯咖啡”、“揮手致意”或上傳一段參考視頻,龍躍大模型即可自動解析語義并生成對應的連貫動作,并支持通過追加指令實時調(diào)整細節(jié)。
這一能力,在教育、服務(wù)機器人領(lǐng)域具有顛覆性意義。據(jù)介紹,龍躍大模型具有四大核心技術(shù)優(yōu)勢:
一是多模態(tài)交互、低門檻驅(qū)動。用戶只需用自然語言驅(qū)動,模型即可“一切行動聽指揮”。
二是擬真度與時序一致性雙突破。通過將人體動作視為“時序語言”,生成的跑步、舞蹈等動作不僅流暢自然,更保留真實人體的慣性節(jié)奏。
三是結(jié)構(gòu)生成與細節(jié)優(yōu)化并重。模型采用分階段生成策略,從全局姿態(tài)到局部關(guān)節(jié)角度均實現(xiàn)毫米級精度控制。
四是輕量化設(shè)計,賦能廣泛場景。在保證性能的前提下,MindLoongGPT模型體積被壓縮至同類型產(chǎn)品的1/3,可在教育機器人、智能穿戴設(shè)備等嵌入式平臺實時運行,為產(chǎn)業(yè)落地鋪平道路。