北京舟岛律师事务所关于《网络安全法修正草案拟加强人工智能安全监管》文件的解读

来源: | 作者:创始人 | 发布日期:2025-10-27 | 0 次浏览

一、立法背景与修订必要性

2016年颁布的《网络安全法》作为我国网络安全领域的基础性法律,在规范网络空间秩序、保障网络安全方面发挥了重要作用。然而,随着人工智能技术的快速发展,深度伪造、算法歧视、数据滥用等新型安全风险日益凸显,传统监管框架已难以适应技术变革需求。2025年10月24日提请全国人大常委会二次审议的修正草案,正是对这一现实挑战的立法回应。

此次修订的必要性体现在三方面:一是人工智能技术已深度嵌入金融、医疗、交通等关键领域,其安全风险可能引发系统性危机;二是我国人工智能产业规模突破万亿,但伦理规范和监管机制相对滞后;三是国际社会对AI治理的竞争日益激烈,亟需通过立法掌握技术发展主动权。

二、核心修订内容解析

(一)强化党的领导与总体国家安全观

修正草案首次在网络安全领域明确"坚持中国共产党的领导,贯彻总体国家安全观"的立法原则。这一表述将网络安全工作纳入国家安全体系,要求在推动技术创新的同时,防范外部势力通过AI技术实施渗透破坏。例如,在跨境数据流动、关键基础设施保护等场景中,需严格执行国家安全审查制度。

(二)构建AI安全与发展双轮驱动框架

草案新增的AI专章系统设计了技术发展、伦理规范、风险防控的三维监管体系:

  1. 技术研发支持:明确国家支持基础理论研究与算法创新,对量子计算、神经形态芯片等前沿领域给予政策倾斜。如北京某AI实验室因突破深度学习模型效率瓶颈,获得专项科研补贴。
  2. 基础设施保障:要求统筹建设算力中心、数据集等新型基础设施。上海临港AI计算中心作为典型案例,其采用的液冷技术使能耗降低40%,为AI大模型训练提供绿色算力支持。
  3. 伦理规范建设:建立分级分类的伦理审查机制。医疗AI诊断系统需通过三级伦理评估,涉及基因编辑等高风险领域须经国家AI伦理委员会审批。
  4. 动态监测体系:构建覆盖算法全生命周期的风险评估框架。某电商平台因推荐算法存在价格歧视,被监管部门要求限期整改并提交算法透明度报告。

(三)创新监管机制与法律责任

  1. 穿透式监管:对生成式AI服务实行"算法备案+内容溯源"双重管理。某文生图平台因未标注AI生成内容,被处以营业收入5%的罚款并暂停服务30日。
  2. 梯度处罚体系:将违法成本与危害程度挂钩。如非法获取训练数据行为,罚款上限从50万元提升至500万元,情节严重者可吊销营业执照。
  3. 衔接性条款:与《民法典》《个人信息保护法》形成闭环。某金融机构因违规使用生物特征数据,同时触发三项法律责任,最终被处以总额1200万元的复合处罚。

三、典型案例与实务影响

(一)深圳AI换脸诈骗案

2025年3月,犯罪团伙利用深度伪造技术实施电信诈骗,涉案金额超2亿元。修正草案明确要求AI服务提供者对生成内容进行显著标识,未履行义务者将承担连带赔偿责任。此规定将倒逼技术企业建立内容溯源系统。

(二)杭州自动驾驶事故责任认定

某L4级自动驾驶车辆因算法缺陷导致交通事故,监管部门依据草案"算法审计"条款,要求企业公开决策逻辑并召回问题车辆。这标志着AI产品将纳入强制质量认证体系。

(三)跨境数据流动合规挑战

某跨国企业因向境外传输含个人生物特征的训练数据,被处以800万元罚款。修正草案确立的"数据出境安全评估+标准合同"双轨制,要求企业建立数据分类分级管理制度。

四、企业合规应对建议

  1. 建立AI治理委员会:参照草案要求,组建由技术、法务、伦理专家组成的跨部门机构,定期开展算法审计。
  2. 完善风险防控体系:对核心算法实施"设计-开发-部署"全流程管控,保留至少5年的决策日志。
  3. 加强供应链管理:要求数据供应商提供合规证明,对第三方SDK进行安全评估。
  4. 参与标准制定:通过行业协会推动AI伦理准则、测试方法等团体标准建设,提升行业话语权。