說(shuō)話(huà)就能控制左右快慢!理想汽車(chē)MindVLA大模型實(shí)測(cè)視頻發(fā)布
3月21日消息,今天下午,理想汽車(chē)詳細(xì)介紹了MindVLA大模型與現(xiàn)有端到端+VLM大模型的區(qū)別,并公布了相關(guān)實(shí)測(cè)視頻。
按能力表現(xiàn)來(lái)看,MindVLA 模型加持下的汽車(chē)就像一個(gè)助手,能與用戶(hù)溝通、理解用戶(hù)意圖,幫用戶(hù)做更多事情。
比如,它可以在陌生車(chē)庫(kù)漫游找車(chē)位直至自主完成泊車(chē);
可以按照駕駛員的“開(kāi)快點(diǎn)、開(kāi)慢點(diǎn)、左拐、右拐”等語(yǔ)音指令進(jìn)行行動(dòng);
可以在你發(fā)給它地標(biāo)照片后,按圖索驥找到你等等。
理想汽車(chē)還表示,MindVLA是理想汽車(chē)下一代自動(dòng)駕駛核心架構(gòu),使用了MindGPT作為語(yǔ)言基座,demo中的語(yǔ)音通過(guò)座艙的ASR后變成文字,輸入給 MindVLA。
這一設(shè)計(jì)繼承自 MindGPT 在語(yǔ)言理解與交互領(lǐng)域的優(yōu)勢(shì)能力(如語(yǔ)義解析、邏輯推理等),并針對(duì)自動(dòng)駕駛場(chǎng)景進(jìn)行了專(zhuān)項(xiàng)優(yōu)化。
這體現(xiàn)了智艙與智駕在功能層的協(xié)同創(chuàng)新,而非系統(tǒng)層的完全融合。
未來(lái),我們將持續(xù)探索多模態(tài)交互與駕駛決策的深度耦合,為用戶(hù)提供更自然的“人車(chē)共駕”體驗(yàn)。
相關(guān)推薦
- 免責(zé)聲明
- 本文所包含的觀點(diǎn)僅代表作者個(gè)人看法,不代表新火種的觀點(diǎn)。在新火種上獲取的所有信息均不應(yīng)被視為投資建議。新火種對(duì)本文可能提及或鏈接的任何項(xiàng)目不表示認(rèn)可。 交易和投資涉及高風(fēng)險(xiǎn),讀者在采取與本文內(nèi)容相關(guān)的任何行動(dòng)之前,請(qǐng)務(wù)必進(jìn)行充分的盡職調(diào)查。最終的決策應(yīng)該基于您自己的獨(dú)立判斷。新火種不對(duì)因依賴(lài)本文觀點(diǎn)而產(chǎn)生的任何金錢(qián)損失負(fù)任何責(zé)任。