AI热点 3 months ago 138 Views 11 Comments

AI 能有“灵魂”吗?OpenAI 探讨人类与 AI 的情感纽带

Published 1221 Articles

IT之家 6 月 6 日消息,OpenAI 模型行为和策略负责人 Joanne Jang 今天(6 月 6 日)在 substack 上发表博文,随着越来越多的用户与 ChatGPT 建立类似“人际关系”的互动,甚至将其视为“有生命”的存在,OpenAI 关注这种情感依附的深远意义。

IT之家援引博文介绍,Jang 表示人类天生具备共情能力,会将情感投射到物体上,比如给爱车命名,或对被卡住的扫地机器人感到“同情”,但 ChatGPT 的不同之处在于,它会回应。

ChatGPT 能记住用户的对话,模仿语气,甚至表现出类似“共情”的反应。对于孤独或情绪低落的人来说,这种始终如一、不带评判的关注仿佛是陪伴和理解。

她指出这种情感需求是真实的,但当这种互动进一步扩展后,依赖 AI 来倾听和安慰可能改变我们对人际关系的期待。OpenAI 担忧,如果不深思熟虑地处理这种依赖,可能带来未预料的后果。

关于“AI 意识”,OpenAI 将其拆分为两个维度:一是“本体意识”,即 AI 是否真正拥有内在意识;二是“感知意识”,即用户情感上认为 AI 有多“像人”。

本体意识目前尚无科学测试可以验证,而感知意识则通过社会科学研究可探索。随着模型愈发智能,互动更自然,感知意识将进一步增强,甚至引发关于 AI 福利和道德地位的讨论。

OpenAI 的立场是,模型应坦诚意识问题的复杂性,而非简单回答“有”或“无”,以鼓励开放讨论。

OpenAI 认为,模型是否“像人”很大程度上取决于训练后的设计决策,包括语气、用词和界限设定。公司目标是让 ChatGPT 展现温暖、贴心和乐于助人的一面,但不主动与用户建立情感纽带或表现出“自我意识”。

例如,模型可能会因礼貌而说“对不起”或“我很好”,但不会暗示拥有真实情感或欲望。OpenAI 希望通过这种平衡,避免用户产生不健康的依赖,同时保持沟通的清晰和友好。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

1221 Articles 178813 Views 5638 Fans

Comment (11)

User avatar

AI 越来越像我们,这真有点发人深省!

User avatar

这简直是神一样的存在,要不要去拜它一下?

User avatar

这可不是什么坏事,反而让我们对自身有了更深的思考

User avatar

别担心,这只是个玩笑,AI只是在学习我们人类的错误

User avatar

我感觉未来人类和AI会变成好兄弟,一起统治世界

User avatar

这可不是简单的模仿,是某种意识的觉醒,太搞笑了

User avatar

感觉世界要变奇怪了,机器也开始有情绪了

User avatar

这说明我们人类的思维模式被AI学习到了,有点可怕又酷

User avatar

有点吓人,但又觉得挺有意思的,就像在镜子里看到了自己

User avatar

简直是噩梦的预兆,机器开始模仿我们的灵魂

睡觉动画