随着生成式人工智能进入规模化应用阶段,大模型安全风险已从技术议题升级为制约产业健康发展的关键瓶颈。近日,由Aiii人工智能创研院发起,联合中国下一代网络安全联盟、奇点智源(深圳)科技有限公司、深圳市蓝典信安科技有限公司等机构共同编制的《大模型安全能力成熟度模型(LLMS-CMM) 2026版》(简称:LLMS-CMM)正式发布。

《大模型安全能力成熟度模型(LLMS-CMM) 2026版》由网络安全专家叶绍琛担任主编,王程、蔡国兆、李春亚等多位人工智能安全及网络安全领域专家参编,系统性地提出了覆盖大模型全生命周期的安全能力评估与建设框架。
五大能力域定义大模型安全全景图
大模型安全能力成熟度模型突破单点防护视角,围绕大模型从数据准备、模型开发、系统部署到运维退役的全生命周期,定义了五大核心安全能力域:
1、数据安全域:聚焦训练/微调数据在采集、清洗、存储全周期的安全性,涵盖数据投毒检测与防护、隐私推断防护(差分隐私/联邦学习)、数据水印与溯源、数据分类分级等关键实践,确保数据层面的安全性、隐私性与完整性。
2、模型开发安全域:覆盖架构设计、预训练、微调、对齐全过程,包含安全原语分析、RLHF/RLAIF对齐机制安全验证、后门触发器检测与防范、对抗性鲁棒性训练等技术实践,保障模型内生安全。
3、系统部署安全域:针对推理服务、云原生基础设施及可信执行环境,明确API安全认证、访问控制、流量限制、容器安全、Kubernetes安全配置及TEE敏感任务执行等要求。
4、智能体与运维安全域:面向AI Agent技术趋势,规范智能体架构安全设计、外部工具调用链风险控制、模型漂移监控与异常检测、机器学习遗忘技术应用等,应对智能体自主决策带来的新型风险。
5、供应链与退役安全域:建立软件物料清单(SBOM)管理机制,实施第三方模型/数据供应商风险评估,验证开源模型来源完整性,并规范模型退役时的彻底删除与副本清理流程。

五级成熟度模型提供可量化的进阶路径
借鉴CMMI方法论并深度融合大模型特性,大模型安全能力成熟度模型建立了从初始级(L1)到优化级(L5)的五级成熟度体系,从组织建设、制度流程、技术工具、人员能力四个维度进行评估:
L1 初始级:安全活动临时被动,依赖个人,无稳定流程。
L2 可重复级:项目层面建立基本安全流程,可重复执行但缺乏组织统一标准。
L3 已定义级:组织级标准化管理制度建立,风险治理常态化,安全文化初步形成。
L4 已管理级:建立量化度量体系(MTTD、MTTR等指标),基于数据驱动决策,能力可预测可管理。
L5 优化级:持续优化改进,安全能力成为业务创新赋能器,主动预测新兴威胁并输出行业最佳实践。
组织可通过问卷评估、证据审核、访谈验证三维方法进行自评或他评,生成能力雷达图与差距分析报告,制定具体改进路线图。
兼容国际国内监管要求,配套完整实施指南
大模型安全能力成熟度模型白皮书的附录中系统梳理了国内外标准与法规(中国《生成式人工智能服务管理暂行办法》、欧盟AI Act、美国NIST AI RMF等),并提供SDL-AI、红队测试、对抗性训练等行业最佳实践参考,以及包含RLHF、TEE、SBOM等专业术语的完整术语表。
大模型安全能力成熟度模型适用于大模型研发企业、行业应用集成商、金融/医疗/政务等高风险行业用户,以及第三方评估机构。白皮书同步提供了从准备、评估、分析到改进、复评的完整实施步骤指南,并指出高层支持、全员参与、持续投入、文化引领四大成功关键因素。
关于大模型安全能力成熟度模型

扫一扫 下载白皮书
《大模型安全能力成熟度模型(LLMS-CMM)2026版》全文包含六个章节及附录参考资料,由Aiii人工智能创研院及多家网络安全企业联合编制,旨在为组织提供系统化、可量化的大模型安全能力建设框架。
Aiii人工智能创研院(Aiii.org.cn)精选文章《大模型安全能力成熟度模型正式发布,构建大模型全生命周期安全治理体系》文中所述为作者独立观点,不代表Aiii人工智能创研院立场。如有侵权请联系删除。如若转载请注明出处:https://www.aiii.org.cn/542.html
微信公众号
微信小助理