标准会员
过期时间
会员积分 0
还没有账号? 立即注册
已有账号? 立即登录
行业佼佼者
0
粉丝
379
文章
5.71万
总浏览
平均评分
全球人工智能信息服务
机器之心报道编辑:冷猫、张倩黑掉一个大模型似乎比人们预期的要简单得多?在传统观点中,要想攻击或是污染一个具有庞大参数量的大模型是一件非常困难的事。从训练数据入手攻击是一个常见的思路,普遍观念认为需要极大量的数据污染,大模型越是规模庞大,污染它所需的训练数据就越多,这与以往的大模型安全研究结论是一致的。但就在刚刚,Anthropic 与英国人工智能安全研究所(UK AI Security Insti
机器之心报道编辑:Panda用强化学习让 LLM 具备推理(reasoning)能力确实很有效,但耗费颇高。这类模型在回答问题前会生成一长串的思维链(LongCoT);并且增加「思考 token」 的数量能够提升模型的能力。与任何强化学习问题一样,它存在一个决定轨迹如何生成的环境。对于推理 LLM 而言,这个环境相当简单,以至于常常被忽略:状态(state)是由提示词(prompt)与截至目前已生