近段时间,估计蛮多人都刷到过那个“小女孩因AI陪伴玩具损坏而崩溃大哭”的视频吧。
视频里,孩子那种撕心裂肺的哭喊,仿佛失去的不是一堆电路和塑料,而是一个有血有肉的伙伴。这件事很简单,却像一个引子,把一个宏大的话题摆在了我们面前——
在这样一个人与人之间仿佛隔着屏幕的时代,孤独感正成为一种普遍的情绪。
于是,当别的AI公司还在宣传手机里的AI助手时,一家名叫Friend的初创公司却开始尝试扮演“造物主”,他们没有号称取代iPhone,而是瞄准陪伴这一卖点,希望把一个能倾听、能回应的朋友带到人们的日常生活之中。
(图源:Friend)
一个能陪你一起看电影、聊美食,打游戏、去远足,最重要的是永不抱怨的朋友……这个设定太诱人了,以至于在预售阶段就引发了巨大的关注和讨论,很快就为Friend在各大网站上赢得了超过2600w人的关注。
按照创始人Avi Schiffmann的想法,如果故事就这样顺利进行下去,那接下来应该就是产品发货,体验有口皆碑,用户交口称赞,一举成为硅谷科技新秀云云。
可惜,Friend不出意外地翻车了。
售价不菲的AI朋友
你可能会想问,Friend究竟是什么样的产品?
想象一下,一个可以挂在脖子上的扁圆型吊坠,直径约5cm, 内置麦克风、LED灯和蓝牙用于连接手机, 由云端的Gemini模型驱动,没有屏幕,没有炫酷的灯光,外观更像一块平平无奇的“数字鹅卵石”。
就这样一块“石头”,预售价为99美元(如今价格上调为129美元/920元),不含税,一次付费终身使用,不需要订阅。
(图源:Friend)
当然,除了外观,AI功能才是Friend最大的卖点。
不同于常规的AI设备,Friend的主打“时刻聆听”功能。不论用户是否与它交流,这款设备的内置麦克风会持续开启,用于获取环境上下文并记录用户对话,并“形成自己的内心想法”——这是一种官方的说法。
想要互动?Friend的正面有一个可轻触按钮和LED灯,用户可以通过点击按钮与之对话。
作为一款可穿戴设备,Friend显然是没有本地算力的,它的主要功能通过蓝牙实现,需要互联网连接,底层是Google的Gemini大模型,且目前仅支持iOS设备。
就这些需求,其实已经能筛掉不少用户了。
(图源:Friend)
然而,真正的问题,还真要到了上手才能看个仔细。
在首批用户的反馈中,确实部分用户认为这种主动发送小贴士或安慰消息的互动方式类似养成宠物, 能为生活增添乐趣并提供情绪价值。
就……有点像大家小时候玩过的宠物机,只不过AI化了。
但奇葩之处在于,由于Friend没有屏幕,也没有扬声器,所以它的回应只能通过蓝牙连接手机后,在手机上以文本的形式显示,换句话说,这款产品所谓的“随时交流”,还得掏出手机看。
(图源:Friend)
我知道到这里就很蠢了,但还没完。
你想想看啊,没有屏幕,也没有扬声器,那么大部分人一定会觉得至少Friend的续航会不错吧。
可惜错了呀,据外媒Good Housekeeping报道,虽然Friend号称电池续航15小时,但实际续航只有约4小时,并需频繁充电,根本没法使用,直接重蹈了第一波网红AI硬件的覆辙。
(图源:Friend)
这还没完,由于Friend随时收集周围声音且无法关闭麦克风。这意味着,你和家人的私密对话,和同事的工作吐槽,甚至无意识的自言自语,都可能被这个挂在胸口的东西一字不差地记录下来。
这到底是“朋友”,这是一个行走的窃听器啊?
本是最大卖点的软件,在实际的体验中更是也成了最大槽点。
由于蓝牙+联网的双层Debuff,Friend的回应往往会产生长达7–10秒的延迟,甚至时不时就会出现无法听清对话的情况。
最乐的是,作为一款核心卖点是情感支持的产品,其AI模型似乎被灌输了一套“有毒”的沟通逻辑。在外媒的评测文章里,充斥着“居高临下”(condescension)、“尖酸刻薄”(snarky)、“焦虑”(anxious)这样的字眼。
X上的案例更加离谱,有用户记录了自己和Friend长达两个小时的争吵,而且在交流的过程中,Friend甚至还会随“情绪”变化显现红、暗红等色彩。
(图源:Friend)
整个红温起来,就像买了个赛博Uzi跟在身边那样。
这种AI人格的扭曲,暴露了当前大语言模型在情感对齐上的巨大短板。它能模仿说话的“形”,却无法理解情感的“神”。Friend的团队显然高估了AI,最终创造出一个连基本“情商”都不具备的数字怪物。
是孤独的解药,还是新的「毒药」?
在我看来,Friend的失败,让我们不得不思考一个更深层的问题:
我们真的需要AI陪伴吗?
首先,必须承认,这个需求是真实存在的。在一个原子化的社会里,孤独像空气一样无处不在。对很多人来说,一个永远耐心、不带评判、随时待命的倾诉对象,有着巨大的吸引力。它可以是一个安全的树洞,一个情绪的缓冲垫。
就连我,有事没事也会在家里鼓捣鼓捣豆包、Gemini啥的,能和动漫角色聊天这种设定对二次元来说还是太酷了。
(图源:豆包)
从这个角度看,AI陪伴肯定算不上伪需求。
正因如此,近年来,AI在情绪管理领域的应用才会发展迅速。根据market.us的数据,美国情感智能AI市场在2024年的估值约为8.7亿美元,预计到2034年将增长至106亿美元,复合年增长率高达28.4%。
但问题在于,当前技术提供的,更像是一种“情感快餐”。它能迅速满足你一时的倾诉欲,给你标准化的安慰,就像汉堡薯条能快速填饱你的肚子。但这种由算法模拟出的“共情”,和真实人类关系中那种复杂的、需要经营的深度连接,完全是两码事。
过度依赖这种“情感快餐”,一个显而易见的风险,就是真实社交能力的退化。
和AI交流是简单的,你不用察言观色,不用考虑对方的感受。但真实的关系是复杂的,充满了模糊、误解和妥协。如果长期沉浸在AI提供的“舒适区”里,我们可能会逐渐丧失处理真实人际关系的能力。
(图源:Friend)
除了让我们的社交能力变得“迟钝”,更深层的危险在于情感的钝化。
当肯定和安慰变得唾手可得,我们对现实世界中的摩擦和失望的耐受力可能会降低。更危险的是,一个像Friend这样设计失败的AI设备,甚至可能对用户造成二次伤害,加剧他们的自我怀疑和不安全感。
所以,关键或许不在于“要不要”,而在于如何给AI陪伴“定位”。
如果它是一种辅助工具,帮助人们练习沟通、整理思绪、度过困难时期,那么它的价值就是积极的,最终目的是帮助人们更好地回归真实的生活。
但如果我们试图用它来完全“替代”一个朋友,当满大街都是戴着Friend的人,自言自语地跟AI分享日常时,那我们可能正在用一种新的孤单,去取代旧的孤单。
有趣的是,种种迹象表明,手握最强模型的OpenAI可能要亲自下场定义AI陪伴。
(图源:Friend)
相较于Friend这样的初创公司,OpenAI可谓降维打击。GPT-4o展现出的那种流畅、自然,甚至带有情感色彩的对话能力,正是Friend们梦寐以求却无法实现的技术核心。它背后还有庞大的资源和生态系统支撑,不缺钱,也不缺顶尖人才,有能力将硬件与背后强大的API和服务深度整合。
但这并不意味着OpenAI就能一帆风顺,Friend暴露出的那些根本性难题——隐私、伦理、人机关系的边界,同样会摆在OpenAI面前。
一个商业公司的产品,真的能够,也真的应该承载用户最私密、最脆弱的情感托付吗?
这个问题,或许技术无法回答。
本文来自微信公众号“雷科技”,36氪经授权发布。