全新模型RoboVLMs解鎖VLA無限可能,真實機器人實驗交出滿分答卷
本文作者來自清華大學、字節跳動、中科院自動化所、上海交通大學和新加坡國立大學。作者列表:李興航、李沛言、劉明桓、王棟、劉濟榕、康炳易、馬驍、孔濤、張翰博和劉華平。第一作者李興航是清華大學計算機系博士生。通訊作者是字節跳動機器人研究員孔濤,新加坡國立大學博士后張翰博和清華大學計算機系教授劉華平。
近年來,視覺語言基礎模型(Vision Language Models, VLMs)大放異彩,在多模態理解和推理上展現出了超強能力。現在,更加酷炫的視覺語言動作模型(Vision-Language-Action Models, VLAs)來了!通過為 VLMs 加上動作預測模塊,VLAs 不僅能 “看” 懂和 “說” 清,還能 “動” 起來,為機器人領域開啟了新玩法!
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。