标题摘要内容
当前的位置:
详情
【检测信息】《人工智能安全治理框架》2.0版发布:迈向安全可信可控的人工智能新时代
来源: | 作者:AI 小生 | 发布时间: 2025-09-30 | 47 次浏览 | 分享到:

人工智能治理的里程碑文件已至,30项技术措施筑牢安全防线

9月15日,在2025年国家网络安全宣传周主论坛上,《人工智能安全治理框架》2.0版正式发布。这是在2024年发布的1.0版基础上的重大升级,为快速发展的人工智能技术提供了更为全面、系统的治理框架。

框架升级背景:应对AI风险与挑战

过去一年,人工智能技术取得了超预期的突破:高性能推理模型涌现,高效能轻量级模型开源大幅降低了AI应用部署门槛,大模型应用形态从单一问答向嵌入业务流程的智能体演进。

然而,技术的飞速发展也带来了前所未有的安全挑战。

国家互联网应急中心副主任刘博在发布仪式上指出:“框架2.0在1.0的基础上进行横向拓展和纵向加深,结合人工智能技术发展趋势与应用实践,持续跟踪风险演变,迭代完善分类体系,探索分级路径,优化防范治理措施。”

框架2.0的核心变化

治理原则更加完善

框架2.0版新增 “可信应用、防范失控” 原则。这一原则强调构建涵盖技术防护、价值对齐、协同治理等多层面的可信人工智能基本准则,确保技术演进安全、可靠、可控,严防威胁人类生存发展的失控风险,确保人工智能始终处于人类控制之下。

框架还提出了8项可信人工智能基本准则:人类最终控制、尊重国家主权、价值观对齐、提升系统透明度、促进可客观验证、强化安全防护、前瞻预防应对和全球协同共治。

风险分类更全面

框架2.0版将安全风险细化为三大类别:

  • 技术内生安全风险:主要增加了模型开源风险,强调基础模型的开源可能会为不法分子训练“作恶模型”提供便利

  • 技术应用安全风险:增加了污染网络内容生态等具体类型,提出模型输出的低质不良信息,经网络扩散传播、模型循环引用,会造成网络内容质量的整体下降

  • 应用衍生安全风险(新增):主要是冲击劳动就业结构、挑战资源供需平衡、加剧科研伦理风险等

措施更加具体实用

框架2.0版共制定了30个技术应对措施14个综合治理措施

在技术应对方面,框架强调要建立安全护栏,对输入输出进行动态过滤,防止恶意注入和违法内容生成,避免人工智能系统违法违规输出敏感个人信息和重要内容。

同时,要求对人工智能生成内容进行标识,实现可识别、可追溯、可信赖。

在管理方面,框架2.0新增提升全生命周期安全能力,安全有效释放重要行业应用需求,构建科技伦理准则,增进协同应对失控风险共识等综合治理措施。

框架实施的重大意义

提高治理的可操作性

相比1.0版侧重原则倡议和风险梳理,框架2.0版提供了更加具体、可执行的措施和工具,方便政策制定者和从业机构落地实施。

风险分级分类机制的引入使监管可以“对症下药”,避免一刀切;安全测评体系和漏洞众测机制则为企业和科研机构提供了评估改进AI系统安全性的抓手。

增强国际接轨性

新版框架充分体现了对国际AI治理趋势的呼应和融入。一方面,框架2.0版呼应了全球范围内对于AI可信、安全、可控的共同关切。

另一方面,框架2.0版在具体措施上与国际治理实践接轨,如强调AIGC内容的标识与溯源机制,与欧美针对深度合成媒体的监管要求一脉相承。

强化应对高风险AI的能力

框架2.0版专门把防范重大失控风险提升到原则和行动层面,这使我国在应对高风险AI方面走在前列。框架要求对AI在军事、生化等高风险敏感领域的应用进行严格管理,防止AI被不法分子利用于极端用途。

对企业AI安全的启示

框架2.0版对企业人工智能安全实践提供了明确指引。它调整为按照人工智能系统研发生命周期划分指引,更全面地覆盖从研发、部署到运行管理的各阶段安全要求。

设置了“三段式”的安全指引:模型算法研发安全开发指引、应用建设部署安全指引、应用运行管理安全指引。

在企业部署AI系统时,要严格管控权限,不能在没有防护的情况下就将大模型接入互联网,避免因为存在漏洞等问题而被不法分子攻击。

结语

《人工智能安全治理框架》2.0版的发布,标志着我国人工智能治理进入制度化、体系化、国际化的新阶段。

它不仅为我国人工智能安全治理提供更稳固的治理框架支撑,为产业发展提供明确方向,也为全球治理贡献系统化的中国方案



本文内容基于《人工智能安全治理框架》2.0版整理,仅供参考。