中国"十五五"中的人工智能治理
2026 03 15
本文转载自Substack。
2026年3月13日,中国发布第十五个五年规划(英译本)——这份70页的战略文件规划着2030年前国家经济社会发展的方向。就AI治理而言,有两个方面尤为突出:加速议程的全面性,以及其风险管理导向的AI治理方式。该规划推动算力资源扩张、前沿研究以及"AI+“产业应用的规模化发展;其治理重点则在谱系上源自标准应急管理框架,主要关注信息治理与社会稳定。更宏观的新质生产力与加速发展叙事,遵循的是马克思主义政治经济学论证:作为上层建筑的治理,必须适应生产力的发展,而非对其加以制约。为提供必要背景,本文将对十五五中的AI治理架构及其基本主张进行阐述。
人工智能在该战略文件中具有显著存在,与科技创新、高质量发展和国家安全并列为持续关注焦点。该文件以加速议程为特征,主张推动前沿科技发展与综合战略规划的产业政策,以实现人工智能所带来的生产力革命。

新质生产力是习近平于2023年9月赴黑龙江考察时提出的概念创新,是该规划AI产业政策的概念基础。这一术语在古典马克思主义生产力框架的基础上延伸,强调先进制造和AI是生产力质的新历史阶段,如同工业化时期的蒸汽动力,有别于第十三个五年规划中更为核心的创新驱动发展。
同样,科技自立自强是习近平对清代与毛泽东思想路线的延伸,其政治论证是:技术依附将带来中国百年屈辱的脆弱性。这一复合词由自立(源自毛泽东思想)与自强(源自十九世纪清代自强运动)构成,后者是鸦片战争中英国军事与工业优势的回应。然而,自强的谱系可追溯至更早——西周时期《周易》第一卦(乾卦):“天行健,君子以自强不息。”
十五五的AI治理关切如下(直接引用与意译相结合):
- 统筹推进普惠、绿色、大规模算力基础设施扩展,开展超大规模智能算力集群可行性研究(第十二章第一节)
- 推动人工智能技术突破,建立健全模型能力评估体系(第十二章第二节)
- 建立国家数据资源体系,共享政务数据和公共数据,推动企业和行业数据开放。加快高质量数据集建设。完善包括AI训练在内的公共数据和个人数据开发利用责任制度和机制。(第十二章第三节;第十四章第一节)
- 深化AI+行动,强化AI与科技创新、产业、社会的融合(第十三章)
- 完善AI治理、标准与伦理准则(第十四章第二节)
- 探索AI生成内容权属认定规则
- 探索开发者、运营者与用户的权利与责任
- 推动建立人工智能全生命周期风险管理制度,健全覆盖安全监测、风险预警、应急响应的风险防控体系
- 依法打击数据滥用、深度伪造与隐私泄露
- 积极参与AI国际治理,推动建立国际治理框架(第十四章第三节;第二十四章第一节)
- 支持全球南方国家加强AI能力建设(第十四章第四节)
- 应对人工智能对就业的冲击,推动高质量充分就业优先政策(第四十一章第一节)
深入研读"第十四章:营造健康有序发展生态"第二节,若干条款值得细察。
“健全新技术新业态安全监管框架,构建技术标准研制调整、技术应用分级管理机制,推进多元协同共治。”
分级管理机制(亦即:分级分类管理)指的是一套操作标准——依据生成内容类型、社会覆盖范围以及与国家安全的相关性——来确定服务的分类与管理方式。换言之,文件中明确的分级管理更多基于社会影响,而非技术风险。尽管文件提及国家安全是AI的关切之一,但在实践中,AI监管要求中的安全评估与国家安全提及,主要指向内容安全与数据安全。然而,“构建"一词的愿景性语气使我们无法确定这一表述的最终走向,其结果只有在实际监管实施后才能明朗。
在我看来,最需要语境阐释的是紧随其后的一句话:
“推动建立人工智能全生命周期风险管理制度,健全覆盖安全监测、风险预警、应急响应的风险防控体系。”
“全生命周期风险管理制度"与"风险防控体系"究竟意味着什么?若追溯这些术语的谱系,安全监测、风险预警、应急响应这一三位一体公式广泛出现于中国治理的各个领域,是2006年确立的标准监测-预警-响应应急管理框架,被应用于网络安全、数据安全乃至公共卫生危机——尤其是新冠疫情治理。因此,这里提出的框架是一种既有方法,并非AI风险所独有。这一体系在全面落实后是否会纳入危险能力评估,将更多取决于下位实施机构以及中国AI安全研究群体的影响力。目前,重点仍在政治稳定与社会影响。
自然而然的后续问题是:加速方向是否指向当前西方文献所理解的AGI/ASI?这一问题内含两个不同关切:其一,AGI是否被明确设定为战略目标;其二,无论主观意图如何,相关物质投入和既定优先事项是否在结构上推动能力朝向AGI方向发展。
如上所述,我认为,不,十五五以产业竞争力、应用与自立自强框架表述AI目标,并不显示出对追求AGI的偏好。文件至多是推动探索不同研究方向(探索通用人工智能发展路径),如智能体、具身智能、群体智能、通用大模型(注:并非人工通用智能;可参阅IAPS Karson Elmgren的进一步讨论)以及行业专用模型。此处的主要动词"探索"具有试探性,而非收窄至特定研究方向(第十二章第二节)。在结构上,加速议程并不与AGI发展相悖。无论既定目标如何,人才培养、战略投入和研究轨迹均指向强化算力和研究基础设施建设以及前沿能力发展,而这些本身可以说就是通向AGI的路径。然而,文件所阐明的被动治理方式,与加速的能力发展轨迹明显脱节。
究其核心,中国政府似乎并未采取预防性治理措施。在指导思想部分,文件重申治理必须推动"生产关系和生产力、上层建筑和经济基础"之间关系的更好适应,直接援引古典马克思主义:作为上层建筑的治理以及生产关系,均须适应生产力(经济基础)的发展。换言之,治理约束不应超越并预先制约生产力的革命。适应加速变革是核心原则。
值得注意的是,十五五对能力阈值、自主决策、涌现能力、失对齐(misalignment),以及前沿模型或多智能体模型所独有的风险只字未提。尽管规划对AI治理国际合作作出承诺,但也未提及任何应对能力风险的具体国际协调机制。需要注意的是,五年规划代表着宏观战略的既定共识,因此并不涵盖精英审议的全貌或细颗粒度监管关切。然而,一个恰当的体裁比较或许是《欧盟人工智能法案》,后者相比之下明确包含能力阈值条款。
理解五年规划对能力风险框架的显著缺席,更好的视角是:中央政府有激励将AI定性为发展机遇,因为其主要受众是需要执行加速议程的地方政府和国有企业。中央政府设定宏观国家优先事项和KPI,地方政府通过大量实施措施和政策竞争,在抽象目标的执行上展开竞争。当风险和问题出现时,相关中央政府机构可介入并出台监管指引。换言之,负面影响以被动方式加以管控。这本质上是中国治理激励结构的运作方式。不妨回想中央政府对OpenClaw(爪游)的预警,该预警发布于深圳、无锡、杭州等若干市级政府向公众推广其使用之后(进一步讨论)。因此,对于AI安全界而言,最关键的问题是:十五五所呼吁的实施法规是否会将能力风险纳入考量。就目前而言,文件中没有任何内容有力表明技术风险已被纳入国家AI战略的考量之中。