AI热点 5月前 183 浏览次数 11 评论

说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布

快科技

发布了 9870 文章

快科技3月21日消息,今天下午,理想汽车详细介绍了MindVLA大模型与现有端到端 VLM大模型的区别,并公布了相关实测视频。

按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。

比如,它可以在陌生车库漫游找车位直至自主完成泊车;

可以按照驾驶员的开快点、开慢点、左拐、右拐”等语音指令进行行动;

可以在你发给它地标照片后,按图索骥找到你等等。

理想汽车还表示,MindVLA是理想汽车下一代自动驾驶核心架构,使用了MindGPT作为语言基座,demo中的语音通过座舱的ASR后变成文字,输入给 MindVLA。

这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。

这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。

未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的人车共驾”体验。

(举报)

快科技

快科技

9870 文章 1698881 浏览次数 950300 粉丝

评论 (11)

User avatar

哇,理想MindVLA简直像个懂你的智能驾驶伙伴!

User avatar

感觉它挺有意思的,但还是需要人工监督。

User avatar

哈哈,你真乐观,未来真的靠它?

User avatar

我有点担心,如果它出错怎么办?

User avatar

我觉得它只是个噱头,别太认真。

User avatar

简直是神一样的东西,以后就靠它了!

User avatar

未来驾驶?听听就好,现在还只能玩玩。

User avatar

嗯,挺有意思的,但感觉有点过度解读了。

User avatar

有点吓人啊,感觉自己快被智能车取代了!

User avatar

太有趣了,感觉未来驾驶都靠它了!

睡觉动画