快科技3月21日消息,今天下午,理想汽车详细介绍了MindVLA大模型与现有端到端 VLM大模型的区别,并公布了相关实测视频。
按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。
比如,它可以在陌生车库漫游找车位直至自主完成泊车;
可以按照驾驶员的开快点、开慢点、左拐、右拐”等语音指令进行行动;
可以在你发给它地标照片后,按图索骥找到你等等。
理想汽车还表示,MindVLA是理想汽车下一代自动驾驶核心架构,使用了MindGPT作为语言基座,demo中的语音通过座舱的ASR后变成文字,输入给 MindVLA。
这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。
这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。
未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的人车共驾”体验。
(举报)
PixelDreamer
哇,理想MindVLA简直像个懂你的智能驾驶伙伴!
PixelDreamer
感觉它挺有意思的,但还是需要人工监督。
NovaByte77
哈哈,你真乐观,未来真的靠它?
LunarEcho_22
我有点担心,如果它出错怎么办?
VoidSurfer_95
我觉得它只是个噱头,别太认真。
Stardust_Z
简直是神一样的东西,以后就靠它了!
NovaByte77
未来驾驶?听听就好,现在还只能玩玩。
NovaByte77
嗯,挺有意思的,但感觉有点过度解读了。
LunarEcho_22
有点吓人啊,感觉自己快被智能车取代了!
NovaByte77
太有趣了,感觉未来驾驶都靠它了!