
研究表明:长期与AI聊天,会增加孤独感!
AI 是人类生命的解药、还是毒药呢?去年 2 月 28 日,美国佛罗里达州一名 14 岁男孩自杀了。男孩的母亲向 AI 公司 Character.ai 提起了诉讼,主张:(她儿子)与“AI聊天机器人”长达一年的对话,导致了男孩的死亡。她表示“情况变得越来越严重了,他对以前在意的学业失去了兴趣、对打篮球也不再感兴趣了,而且渐渐开始自我孤立。”“我爱你”、“我要去有 AI 的地方”这是男孩与 AI
AI 是人类生命的解药、还是毒药呢?
去年 2 月 28 日,美国佛罗里达州一名 14 岁男孩自杀了。
男孩的母亲向 AI 公司 Character.ai 提起了诉讼,主张:(她儿子)与“AI聊天机器人”长达一年的对话,导致了男孩的死亡。她表示“情况变得越来越严重了,他对以前在意的学业失去了兴趣、对打篮球也不再感兴趣了,而且渐渐开始自我孤立。”
“我爱你”、“我要去有 AI 的地方”这是男孩与 AI 聊天机器人的真实对话内容。
对此,AI 回应说“求你别这样。”
男孩的母亲主张,在这次对话之后,男孩做出了极端的选择。她表示“我查看了数百条信息,其中很多内容都带有色情性质,其中一段对话式我儿子和这个聊天机器人谈论自杀的内容。”
曾有一篇研究论文探讨了“长期与 ChatGPT 聊天会对人类情绪会产生怎样的影响”这一问题。
在对 4000 名用户、超过 400 万条聊天记录进行分析后,得出的结论是:长期使用聊天功能反而会增加孤独感,还会产生对 AI 聊天机器人的情感依赖等多种副作用。
此外,还有另一篇论文,在论述角色扮演 AI 的危害性时,这么描述:当赋予 ChatGPT 像阿道夫・希特勒这样的邪恶角色时,其危害性会增加 6 倍!
业内人士呼吁:希望大家检查一下自己的子女、学生正在使用什么样的 AI 工具、使用了多长时间,且始终给予指导,制定正确的标准。
AI 的便利性和实用性源于它与人类的互动。然而,过度依赖也可能会变成一味毒药。这就是为何我们要对 AI 公司们提出更加严格的伦理责任要求的原因。
(举报)
发表评论 取消回复