銀河通用發布端到端具身抓取基礎大模型GraspVLA
新京報貝殼財經訊(記者韋博雅)1月9日,銀河通用發布端到端具身抓取基礎大模型 GraspVLA。
銀河通用介紹,GraspVLA 的訓練包含預訓練和后訓練兩部分。其中預訓練完全基于合成大數據,訓練數據達到十億幀“視覺-語言-動作”對,掌握泛化閉環抓取能力、達成基礎模型。預訓練后,模型可直接在真實場景和物體上零樣本測試,并具有七大泛化能力;針對特別需求,后訓練僅需小樣本學習即可遷移基礎能力到特定場景,滿足產品需求的專業技能。
銀河通用還給出了VLA((視覺-語言-動作模型))達到基礎模型需滿足的七大泛化標準,即光照泛化、背景泛化、平面位置泛化、空間高度泛化、動作策略泛化、動態干擾泛化和物體類別泛化。
銀河通用表示,對于特定場景的特殊需求, GraspVLA 也具備對新需求的適應及遷移能力。如在工業場景中,僅需采集少量軌跡進行快速后訓練,GraspVLA 便可掌握諸如接線座(Wiring Base)、三角板(Triangular Panel)、黑色軟管(Black Hose)等特殊工業名詞,能從任意擺放的密集場景中找出對應零件。
(文章來源:新京報)
相關推薦
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。