人与 AI 的交互时常陷入 “错位”—— 你以为它懂了,它却走向另一条路。一套关于人机协作的设计原则,从明确能力边界到应对出错场景,再到长期适配习惯,勾勒出顺畅互动的核心逻辑,让 AI 真正成为懂配合的伙伴。

有一次,我刷到一个短视频,忍不住笑出声。
视频里的男生跟家里的智能音箱说,“帮我订杯咖啡”,它居然回一句“我能为你搜索附近的音乐。”
他一脸无奈:“我不是在点歌,我是想喝咖啡!”
是不是很眼熟?
和AI对话,好像“一个在讲中文,一个在听火星语”。你以为它懂了,其实它完全没明白;你希望它帮你,结果它把你推向了另一条路。
问题出在哪?微软研究院提出了答案。

🔗 官网链接:
https://www.microsoft.com/en-us/haxtoolkit/ai-guidelines/
他们提出了一套叫做 HAX(Human-AI eXperience)的18条交互设计原则,专为“人如何与AI协作”而生。
今天,我们就用简单易懂的方式,把它拆开,讲清楚。
共18条,分4个阶段。
一、起点:系统该做什么?能做多好?
1. 说明系统能做什么
就像面试时你要告诉老板你会啥,AI系统也该清清楚楚告诉用户:“我能做什么,我做的是哪方面的工作。”
比如你打开Siri,它说:“我可以帮你设置闹钟、播放音乐、查询天气……”你就知道别指望它会替你发朋友圈。
ChatGPT也是如此,它不是万能秘书,而是“语言助手”。能写文案、回答问题,但不会帮你打电话或订外卖。
2. 说明系统做得有多好
“能做”和“做得好”是两回事。
比如AI相册可以识别照片中的“猫”,但偶尔也会把毛绒玩具误认为是猫。你得知道它是“70%准确率”,别太放心。
如果系统不告诉用户它的“能力边界”,用户就会把它当成神,一旦出错就会大失所望。这就是“幻觉式信任”,产品的大忌。
二、互动中:怎么配合更顺畅?
3. 让服务出现在恰当时机
好的AI,不抢戏,在你需要它的时候出现。

比如你刚打开高德地图,它识别到你每天这个时间点要去公司,就弹出一句:“现在前往公司,预计23分钟到达,要开始导航吗?”
这比它一打开就开始播路况、抢着说话,要体贴得多。
4. 呈现相关信息,而不是一堆资料
你问:“附近有没有咖啡店?”
❌ 最烂的回答是:“咖啡,起源于埃塞俄比亚,是一种广受欢迎的饮品……”
✅ 最好的回答是:“附近有3家评分4.5以上的咖啡馆,最近的是XXX咖啡,步行3分钟。”
信息不是越多越好,而是越相关越好。
5. 尊重社会规范
AI再智能,也得讲“人情世故”。
比如医院引入AI诊疗系统,它的角色是“医生的助手”,不是“医生的替代者”。它不能跳过医生,直接对病人说:“你得了肺炎。”
那不是“智能”,是“越位”。
6. 减少偏见的扩散
AI从人类数据中学会“世界观”,但人类的数据本身就有偏见。
如果你给它喂的招聘数据中,男性更多担任CTO,它就会觉得“技术岗位=男性”;你不纠正,它就会越来越偏。
现实中,曾有AI招聘系统被发现“更倾向男性简历”,就是因为它学错了东西,还以为是正确答案。
所以要给它“纠偏的机会”。
三、出错时:如何优雅收场?
7. 支持快速重新请求(再来一次)
你说错话,想改一句,AI能不能马上理解并重来?
比如你在AI绘图软件里输错关键词,只要重新输入,立刻刷新图片——这种“快速回头”的体验非常重要。
否则你就会觉得:“它不懂我。”
8. 允许高效关闭(我不想用了)
你在使用一个AI客服,发现回答不对劲,想直接转人工——能不能马上做到?
好的系统会有“退出按钮”或“转人工”选项,坏的系统让你在对话框里反复输入“转人工、人工、人工”,还是不理你。
这会让用户非常抓狂。
9. 支持快速修正错误
AI推荐了一家你不喜欢的餐厅,你说:“不是A,是B。”
它应该能马上理解,并重新推荐——而不是装聋作哑继续念列表。
像Spotify或网易云的“点踩”机制,就是一种修正通道,用户的反馈可以快速修正推荐结果。
10. 不确定时,控制范围
AI不懂的时候,不能“瞎说”。
比如ChatGPT有时回答“我无法确定你的问题背景”,这其实比一本正经胡说八道好很多。
语音助手说“我不太确定你是不是想播放这首歌”,比直接放错歌,更让人觉得靠谱。
11. 说明它为啥这么做
你问AI:“为什么你推荐这本书?”
它回答:“因为你看过《原则》和《纳瓦尔宝典》,这本《穷查理宝典》风格类似。”
你就会信任它。因为你知道它“不是拍脑袋”,而是“有理由”。
这种“可解释性”会极大增强人与AI之间的信任。
四、长期关系:越用越懂你
12. 记得你的使用习惯
你每天早上7点打开音乐App听《晨间冥想》,系统应该自动在6:59准备好。
这就是“习惯记忆”。
如果它每次都问:“您想听什么?”用户就会烦。
13. 从行为中学习
你经常跳过某类推荐内容,系统应该学会“别再推荐了”。B站、YouTube、抖音都在用“你的行为”来优化算法。
不是你告诉它,而是它看你“怎么做”,自己学会“怎么变”。
14. 小心谨慎地更新模型
不要因为一次版本升级,用户界面就大改、功能全变、习惯全没。好的AI产品,会小步试探——比如在少数用户群体中灰度测试,观察反馈再推广。
微信就是这样稳:每次更新,几乎都不影响用户的操作节奏。
15. 鼓励用户细化反馈
你说:“不喜欢这个结果。”
系统不该就此打住,而是接着问:“是因为推荐内容不对,还是界面太慢,还是表达方式不适合?”
通过“层层细问”,让用户成为AI进化的一部分。
16. 告诉用户他们行为的影响
你在购物网站点了某个品类,系统要告诉你:“你现在看到的推荐,会因为你的点击而变化。”
这样用户才知道:我的一个动作,系统就会“改写记忆”。
17. 提供统一管理权限
你得有一个“总控室”:看哪些数据被收集、哪些服务在运行、哪些权限你已授权。
比如苹果的“隐私报告”、微信的“授权管理”,就是在给用户“安全感”。
18. 主动告知变化
每次更新推荐算法、隐私政策,系统都应主动说:“我们最近做了以下更新……不影响你的现有使用体验,但更符合你的偏好。”
这不仅是合规,更是“尊重”。
写在最后

这18条人机协作原则,看起来像是写给设计师的,其实写给每一个与AI共处的人。
因为未来,AI不会只是“工具”,它将越来越像“同事”——甚至是“你身边最常互动的伙伴、你的工友们”。
本文由人人都是产品经理作者【龙国富】,微信公众号:【龙国富】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。