從官方介紹獲悉,該模型覆蓋 7B、72B 參數(shù)規(guī)模,是迄今為止“最大規(guī)模的開(kāi)源具身多模態(tài)大模型”,同時(shí),也是迄今為止全球性能最強(qiáng)大的具身智能 VLM 模型。根據(jù)測(cè)試,其性能超越 GPT-5 同類(lèi)模型 15.79% ,與 Google gemini 系列模型相比提升 19.25%,同時(shí)也超越通義千問(wèn)、書(shū)生萬(wàn)象等國(guó)內(nèi)模型,成為了目前最強(qiáng)的開(kāi)源具身多模態(tài)大模型。
文章稱(chēng),該團(tuán)隊(duì)還提出了一套全新的 DPPO(刻意訓(xùn)練)訓(xùn)練范式,是全球首創(chuàng)的具身多模態(tài)大模型后訓(xùn)練自進(jìn)化算法框架。憑借 DPPO,Pelican-VL 實(shí)現(xiàn)‘性能最強(qiáng)’這一目標(biāo)使用的數(shù)據(jù)量為 200K,僅僅是其他大模型的 1/10 甚至 1/50,是名副其實(shí)的開(kāi)源 VLM 性?xún)r(jià)比之王。
Pelican-VL 1.0 的開(kāi)源,能夠大幅提升具身智能在商業(yè)服務(wù)、工業(yè)泛工業(yè)、高危特種作業(yè)、家庭服務(wù)等多種真實(shí)場(chǎng)景中,通過(guò)視覺(jué)-語(yǔ)言感知輔助多步任務(wù)規(guī)劃的能力。而 VLM 作為目前實(shí)現(xiàn)機(jī)器人全自主的核心,Pelican 的開(kāi)源也將推動(dòng)我國(guó)具身智能全自主發(fā)展。
本次開(kāi)源的 Pelican-VL 1.0 的核心優(yōu)勢(shì)在于深度整合海量數(shù)據(jù)與自適應(yīng)學(xué)習(xí)機(jī)制,在由 1000+ A800 GPU 組成的集群上訓(xùn)練,單次檢查點(diǎn)訓(xùn)練耗費(fèi)超過(guò) 50,000 A800 GPU-小時(shí);團(tuán)隊(duì)從原始數(shù)據(jù)中蒸餾出的包含數(shù)億 token 的高質(zhì)量元數(shù)據(jù)以做訓(xùn)練基石?;谏鲜鰞?yōu)勢(shì),Pelican-VL 1.0 實(shí)現(xiàn)了在基線(xiàn)基礎(chǔ)上性能提升 20.3%,平均超過(guò) Qwen3-VL 系列、InternVL3.5 系列等同級(jí)別開(kāi)源模型 10.6%。
得益于“刻意練習(xí)”DPPO(Deliberate Practice Policy Optimization)訓(xùn)練范式,Pelican-VL 就像一名刻苦鉆研的學(xué)生:每次訓(xùn)練循環(huán)都會(huì)“看視頻 — 自主練習(xí) — 發(fā)現(xiàn)錯(cuò)誤 — 糾正提升”。通過(guò) DPPO 模仿人類(lèi)元認(rèn)知的學(xué)習(xí)方式,通過(guò)強(qiáng)化學(xué)習(xí)(RL)探索弱點(diǎn)、生成失敗樣本,再進(jìn)行有針對(duì)性地監(jiān)督微調(diào)(SFT),讓模型不斷自我糾錯(cuò)和迭代進(jìn)步。
就像學(xué)生做錯(cuò)題后總結(jié)經(jīng)驗(yàn)一樣,Pelican-VL 能在訓(xùn)練中發(fā)現(xiàn)“薄弱知識(shí)點(diǎn)”并補(bǔ)齊,從而持續(xù)提高在視覺(jué)-語(yǔ)言和具身任務(wù)上的能力。通過(guò)這種機(jī)制,Pelican-VL 能夠更準(zhǔn)確地理解圖像內(nèi)容、語(yǔ)言指令和物理常識(shí),最終在決策和操作執(zhí)行環(huán)節(jié)中,實(shí)現(xiàn)了具身智能在空間-時(shí)間推理和動(dòng)作規(guī)劃方面的大幅突破。
























網(wǎng)站客服
粵公網(wǎng)安備 44030402000946號(hào)