AI热点 4月前 101 浏览次数 8 评论

OpenAI、Anthropic 研究人员齐声谴责 xAI:安全文化“完全不负责任”

AI中国
AI中国

发布了 11569 文章

IT之家 7 月 17 日消息,据外媒 TechCrunch 今日报道,OpenAI、Anthropic 等机构的 AI 安全研究人员近日公开发声,批评马斯克 xAI 的安全文化“鲁莽”“完全不负责任”

目前在 OpenAI 担任 AI 安全研究员的哈佛大学计算机科学教授 Boaz Barak 在 X 上发文说:“我原本不打算评论 Grok 的安全问题,毕竟我所在的公司与 xAI 存在竞争关系,但这件事根本不是竞争问题。我尊重 xAI 的科学家和工程师,但他们处理安全的方式实在太不负责任了。”

Barak 特别指出,xAI 拒绝发布“系统卡片”令人担忧(IT之家注:这类报告是 AI 行业的基本规范,通常会详细说明模型的训练方式与安全评估,以便科研界共同监督)。正因为 xAI 没有公布相关信息,Grok 4 是否进行过任何安全训练如今无从得知

Barak 还对 Grok 的 AI 虚拟角色提出批评,认为它们“放大了我们在情感依赖方面最糟糕的问题”。近年来已有不少案例显示,一些心理状态不稳定的人会对聊天机器人产生病态依赖,而 AI 如果总是迎合用户,反而会进一步加剧风险

Anthropic 的 AI 安全研究员 Samuel Marks 也批评 xAI 拒绝公开安全评估报告,称此举“鲁莽”。他表示:“Anthropic、OpenAI 和谷歌在这方面都不完美,但至少他们在上线前会做一些评估并记录结果,而 xAI 则完全没有。”

目前,外界根本无法判断 xAI 是否对 Grok 4 进行过系统测试。在论坛 LessWrong 上,有匿名研究者发帖称,Grok 4“几乎没有任何实质性的安全防护机制”,他们的测试结果让人忧心。

xAI 的安全顾问、AI 安全中心主任 Dan Hendrycks 在 X 上表示,公司已对 Grok 4 进行过“危险能力评估”,但并未公布任何评估结果。

曾在 OpenAI 领导安全团队、现为独立研究员的 Steven Adler 对 TechCrunch 表示:“如果连最基本的安全实践都不能在行业内得到执行,比如公布危险能力评估的结果,那我确实感到担忧。政府和公众有权了解 AI 公司是如何应对这些强大系统所带来的风险的。”

马斯克本人长期以来就是 AI 安全的高调倡导者。他多次警告高级 AI 可能带来灾难性后果,也曾公开支持“开放透明”的开发方式。

但眼下多个研究团队认为 xAI 的行为正背离这些理念,在发布模型的安全流程上已偏离行业常规。讽刺的是,这些做法反而可能促使州议会和联邦政府更快推动相关立法,要求 AI 公司强制披露安全报告

多位研究者指出,AI 安全和对齐测试不仅是为了防止极端风险,也是为了防范眼下模型行为失常的问题。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

AI中国

AI中国

11569 文章 2144100 浏览次数 950300 粉丝

评论 (8)

User avatar

这事儿,有点刺激,也挺有挑战性的

User avatar

我觉得挺好的,希望AI能给我们带来更多惊喜

User avatar

看来这AI,是要统治世界的,哈哈哈

User avatar

哎呀,这事儿我有点好奇,想看看怎么发展

User avatar

这叫负责任?我觉得是叫不负责任,应该放开点

User avatar

AI发展太快了,咱得跟上脚步,别整天害怕

User avatar

感觉那些人有点杞人忧天,大胆探索才能进步啊

User avatar

这事儿挺有意思的,必须好好研究研究

睡觉动画