IT之家 6 月 20 日消息,据“网信中国”公众号消息,“清朗・整治 AI 技术滥用”专项行动自 2025 年 4 月启动以来,中央网信办聚焦 AI 换脸拟声侵犯公众权益、AI 内容标识缺失误导公众等 AI 技术滥用乱象,深入推进第一阶段重点整治任务,部署各地网信部门加大违规 AI 产品处置力度,切断违规产品营销引流渠道,督促重点网站平台健全技术安全保障措施,推动生成合成内容标识加速落地。第一阶段累计处置违规小程序、应用程序、智能体等 AI 产品 3500 余款,清理违法违规信息 96 万余条,处置账号 3700 余个,各项工作取得积极进展。
各地网信部门多措并举,扎实推进,积极履行属地管理责任:
北京网信办开设 AI 技术滥用治理举报渠道,形成“用户标记 — 平台核查 — 联合处置”工作模式,处置有关举报 26 篇。
上海网信办推动标识要求落地示范,组织开展 4 场法规宣贯和专题交流,覆盖企业 400 余家,属地内重点企业已基本完成显式标识规范上线。
浙江网信办加大对属地 AI 应用和网站平台的督导力度,各平台共拦截清理各类违法违规信息及提问 2550 万余条。
江苏网信办加强统筹协调,联合省通信管理局等部门排查 AI 风险域名 163 个,封堵和取消接入域名 18 个。
天津网信办采用“人工 + 技术”方式,开展大模型安全监测,通报 4 批次 14 个风险问题。
重点网站平台积极履行主体管理责任,加强 AI 技术滥用源头治理:
在处置违规 AI 产品方面,腾讯规范应用程序管理,提高准入门槛,优化巡查机制,驳回、处置违规小程序、应用程序等共计 570 余款。
在清理违规 AI 产品教程和商品方面,微博通过策略识别、用户举报等多渠道审核,累计处置违规内容 4800 余条,并公布典型案例。
在加强训练语料管理方面,通义平台围绕数据生命周期建立安全管理体系,在数据采集、训练、使用等阶段加强训练语料管理。
在强化安全管理措施方面,抖音建立“红蓝对抗”机制,模拟攻击案例,修复潜在安全漏洞,优化模型对虚假信息的识别能力。
在落实内容标识要求方面,阿里、快手、稀宇等重点平台积极推进元数据隐式标识落地落实。
在防范重点领域安全风险方面,小红书在模型后置训练阶段输入专业领域数据,提升模型对医疗、金融、未成年人等重点领域问题的理解能力。
下一步,中央网信办将聚焦 AI 造谣、低俗内容等 7 类突出问题,开展“清朗・整治 AI 技术滥用”专项行动第二阶段工作,构建技术监测体系,形成处置处罚规范,推动内容标识如期落地,形成长效工作机制,着力维护清朗网络生态,推动人工智能向善向好。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。