点击上方蓝字关注我们
9月15日,2025年国家网络安全宣传周主论坛现场传来重磅消息 ——《人工智能安全治理框架》2.0版(以下简称《框架》2.0版)正式亮相!这一关乎全球AI发展方向的重要文件,不仅是对去年1.0版的升级迭代,更给快速发展的人工智能行业划定了 “安全红线”,释放出中国推动 AI可信可控发展的明确信号。
回溯到《人工智能安全治理框架》1.0版首次发布时,便因紧密对接《全球人工智能治理倡议》、聚焦AI安全核心痛点,迅速引发国内外政产学研界的广泛关注。而短短一年间,AI技术迭代速度远超预期:大模型参数规模持续突破、多模态应用渗透到医疗、教育、工业等关键领域,但随之而来的算法偏见、数据泄露、深度伪造风险也愈发复杂,原有的治理框架亟待跟上技术发展步伐。
正是在这样的背景下,由国家网信办指导,国家互联网应急中心牵头,联合数十家人工智能专业机构、顶尖科研院所与龙头企业共同打磨的《框架》2.0版应运而生。作为全国网络安全标准化技术委员会的重要技术文件,新版框架并非简单修补,而是从 “风险治理” 核心出发,做了三大关键升级:
一是风险分类更精准,结合近一年AI应用实践,新增 “AI 生成内容合规风险”“大模型供应链安全风险” 等细分领域,让风险识别不再 “模糊化”;
二是探索风险分级机制,首次尝试按 “影响范围 + 危害程度” 对AI风险划分等级,为不同行业、不同规模的企业提供差异化治理指引,避免 “一刀切”;
三是治理措施动态更新,针对深度伪造、算法歧视等新问题,补充了 “生成内容溯源技术要求”“算法透明度评估指标” 等可落地的措施,让治理从 “原则性” 走向 “实操性”。
“《框架》2.0版的发布,不是为了给AI发展‘设限’,而是为了给创新‘护航’。” 国家互联网应急中心相关负责同志在发布现场强调。从全球视角来看,当前各国 AI 治理政策仍存在差异,部分地区甚至出现 “技术脱钩” 倾向,而中国此次发布的新版框架,既坚持 “安全与发展并重” 的理念,又倡导 “跨国界、跨领域、跨行业” 的协同治理 —— 这意味着未来中国将更积极地参与全球AI安全合作,推动技术成果普惠共享,避免AI成为少数国家的 “专属工具”。
对企业和从业者而言,《框架》2.0 版更是一份 “实用指南”:互联网企业可依据风险分级,优化 AI 产品安全测试流程;医疗、金融等敏感行业,能对照新增的风险分类,排查 AI 应用中的数据安全漏洞;科研机构也可围绕框架中的技术要求,开展 AI 安全技术攻关。换句话说,这份框架让 “AI 安全” 不再是抽象的口号,而是可落地、可验证的具体行动。
目前,《框架》2.0 版全文已同步公开,无论是 AI 行业从业者、政策研究者,还是关注科技发展的普通读者,都可通过官方渠道查阅。在人工智能深刻改变人类生产生活方式的今天,一份科学、完善的治理框架,不仅能守护我们免受技术风险的侵害,更能让 AI 真正成为推动社会进步的 “正能量”—— 毕竟,只有安全可信的 AI,才能让每个人都共享技术发展的红利