Anthropic强化AI模型安全措施,确保技术负责任扩展 最近,人工智能公司 Anthropic 发布了其 “负责任扩展” 政策的最新更新,明确了哪些模型需要额外的安全保护。这一举措旨在确保在推出新技术前,能够有效防范可能的风险。据 Anthropic 在其博客中所述,如果在对某个 AI 模型进行压力测试时发现,该模型有可能帮助一个 “资源适中的国家程序” 开发化学和生物武器,Anthropic 将会在正式推出该技术之前,首先采取新的安全保护措施。此外, AI热点 3周前 0 点赞 0 评论 176 浏览