3月18日,理想汽車發(fā)布下一代自動駕駛架構MindVLA。
理想汽車CEO李想在微博表示,它將空間智能、語言智能和行為智能統(tǒng)一在一個模型里,讓自動駕駛擁有感知、思考和適應環(huán)境的能力,是我們通往L4路上最重要的一步。
MindVLA能為自動駕駛賦予類似人類的駕駛能力,就像iPhone 4重新定義了手機,MindVLA也將重新定義自動駕駛。
理想汽車自動駕駛技術研發(fā)負責人賈鵬表示:“MindVLA是
機器人大模型,它成功整合了空間智能、語言智能和行為智能,一旦跑通物理世界和數字世界結合的范式后,將有望賦能更多行業(yè)。MindVLA將把汽車從單純的運輸工具轉變?yōu)橘N心的專職司機,它能聽得懂、看得見、找得到。我們希望MindVLA能為汽車賦予類似人類的認知和適應能力,將其轉變?yōu)槟軌蛩伎嫉闹悄荏w。”
據了解,MindVLA不是簡單地將端到端模型和VLM模型結合在一起,所有模塊都是全新設計。3D空間編碼器通過語言模型,和邏輯推理結合在一起后,給出合理的駕駛決策,并輸出一組Action Token(動作詞元),Action Token指的是對周圍環(huán)境和自車駕駛行為的編碼,并通過Diffusion(擴散模型)進一步優(yōu)化出最佳的駕駛軌跡,整個推理過程都要發(fā)生在車端,并且要做到實時運行。
MindVLA將為用戶帶來全新的產品形態(tài)和產品體驗,有MindVLA賦能的汽車是聽得懂、看得見、找得到的專職司機。
“聽得懂”是用戶可以通過語音指令改變車輛的路線和行為,例如用戶在陌生園區(qū)尋找超市,只需要通過理想同學對車輛說:“帶我去找超市”,車輛將在沒有導航信息的情況下,自主漫游找到目的地;車輛行駛過程中,用戶還可以跟理想同學說:“開太快了”“應該走左邊這條路”等,MindVLA能夠理解并執(zhí)行這些指令。
“看得見”是指MindVLA具備強大的通識能力,不僅能夠認識星巴克、肯德基等不同的商店招牌,當用戶在陌生地點找不到車輛時,可以拍一張附近環(huán)境的照片發(fā)送給車輛,擁有MindVLA賦能的車輛能夠搜尋照片中的位置,并自動找到用戶。
“找得到”意味著車輛可以自主地在地庫、園區(qū)和公共道路上漫游,其中典型應用場景是用戶在商場地庫找不到車位時,可以跟車輛說:“去找個車位停好”,車輛就會利用強大的空間推理能力自主尋找車位,即便遇到死胡同,車輛也會自如地倒車,重新尋找合適的車位停下,整個過程不依賴地圖或導航信息,完全依賴MindVLA的空間理解和邏輯推理能力。
總結來說,對于用戶而言,有MindVLA賦能的車不再只是一個駕駛工具,而是一個能與用戶溝通、理解用戶意圖的智能體。
版權與免責聲明:
凡本站注明“來源:智能制造網”的所有作品,均為浙江興旺寶明通網絡有限公司-智能制造網合法擁有版權或有權使用的作品,未經本站授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:智能制造網”。違反上述聲明者,本站將追究其相關法律責任。
本站轉載并注明自其它來源(非智能制造網)的作品,目的在于傳遞更多信息,并不代表本站贊同其觀點或和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。如其他媒體、平臺或個人從本站轉載時,必須保留本站注明的作品第一來源,并自負版權等法律責任。如擅自篡改為“稿件來源:智能制造網”,本站將依法追究責任。
鑒于本站稿件來源廣泛、數量較多,如涉及作品內容、版權等問題,請與本站聯系并提供相關證明材料:聯系電話:0571-89719789;郵箱:1271141964@qq.com。