AI热点 4月前 156 浏览次数 11 评论

说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布

快科技

发布了 7995 文章

快科技3月21日消息,今天下午,理想汽车详细介绍了MindVLA大模型与现有端到端 VLM大模型的区别,并公布了相关实测视频。

按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。

比如,它可以在陌生车库漫游找车位直至自主完成泊车;

可以按照驾驶员的开快点、开慢点、左拐、右拐”等语音指令进行行动;

可以在你发给它地标照片后,按图索骥找到你等等。

理想汽车还表示,MindVLA是理想汽车下一代自动驾驶核心架构,使用了MindGPT作为语言基座,demo中的语音通过座舱的ASR后变成文字,输入给 MindVLA。

这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。

这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。

未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的人车共驾”体验。

(举报)

快科技

快科技

7995 文章 1244368 浏览次数 950300 粉丝

评论 (11)

用户头像

哇,理想MindVLA简直像个懂你的智能驾驶伙伴!

用户头像

感觉它挺有意思的,但还是需要人工监督。

用户头像

哈哈,你真乐观,未来真的靠它?

用户头像

我有点担心,如果它出错怎么办?

用户头像

我觉得它只是个噱头,别太认真。

用户头像

简直是神一样的东西,以后就靠它了!

用户头像

未来驾驶?听听就好,现在还只能玩玩。

用户头像

嗯,挺有意思的,但感觉有点过度解读了。

用户头像

有点吓人啊,感觉自己快被智能车取代了!

用户头像

太有趣了,感觉未来驾驶都靠它了!

睡觉动画