一、研究背景、方法论与主权AI的定义
埃森哲(Accenture)联合英伟达(NVIDIA)等合作伙伴发布的《主权人工智能:从管理风险到加速增长》(Sovereign AI: Own your AI future – From managing risk to accelerating growth)研究报告,是AI时代全球地缘政治与技术主导权竞争加剧的产物。该报告将主权AI视为国家竞争力和企业生存的基础要素,明确指出当前AI的核心要素——模型、计算能力和数据——高度集中于少数几个全球参与者手中,其中2024年近70%的领先AI模型源自美国,另有四分之一源自中国。这种高度集中造成了全球多国在关键基础设施和创新能力上的依赖性,引发了关于国家安全、经济竞争力、文化身份和长期创新的深刻担忧。
主权AI是指一个国家或地区能够利用其自身的基础设施、数据、模型和人才,独立开发和部署AI能力,从而在保持对AI全生命周期完全控制的同时,促进创新、驱动经济增长并实现其战略利益。报告强调,主权AI并非意味着孤立主义或要求每个国家从零开始构建完整的AI堆栈,而是强调在自身条件下实现互操作性,根据具体事例和国家优先事项,灵活、安全地融合全球和本地技术组件。这一概念是从欧洲多年前兴起的“主权云”(Sovereign Cloud)运动的延伸,如今在AI时代,其利益相关方已不仅限于数据保护和安全合规,更关乎国家经济增长和长期战略自主。
研究方法和数据基础
该报告的定量分析基于一项全球调研,受访者包括来自28个国家、18个行业共1,928家组织的高级技术和政策领导者(如CIO、CTO、首席数据官等),调研时间为2025年7月至8月。
为了衡量各国和各行业在主权AI方面的准备程度,埃森哲构建了“主权成熟度指数”(Sovereignty Maturity Index),分数范围为0-100。该指数综合了四个核心组成部分:组织当前和目标的主权水平(权重0.5)、在数字和AI堆栈五个层面(应用、数据、AI模型、基础设施、安全与治理)实现的主权程度(权重0.3)、对主权倡议的投资(权重0.1),以及对数据的控制权(权重0.1)。
主要定量发现包括:
- 地缘政治风险驱动需求:61%的受访企业和政府领导者表示,鉴于日益加剧的地缘政治动荡,他们更有可能寻求主权技术解决方案。
- 市场潜力巨大:机构预测主权AI基础设施的全球潜在市场机会约为1.5万亿美元,其中欧洲预计占1200亿美元。埃森哲估计,到2030年,欧洲可能占据全球主权AI市场高达30%的份额。
- 成熟度领先者:在主权成熟度指数中,受严格监管的行业(如航空航天与国防、政府与公共部门、医疗保健)处于领先地位。国家层面,北欧国家、德国、瑞士、英国和法国等欧洲国家得分高于平均水平,加拿大和沙特阿拉伯也表现突出。
- 战略认知滞后:尽管需求旺盛,但只有15%的组织将AI主权提升至CEO或董事会层面,多数仍将其视为合规要求(46%)或风险管控手段(27%)。
二、报告核心结论:实现主权AI的四大战略要务
埃森哲的报告提出了四大战略要务,旨在帮助组织将主权AI从防御性的“风险管理”工具转变为进攻性的“价值创造”引擎:
1. CEO所有权:将主权AI作为领导层的新权力游戏 (CEO Ownership)报告指出,目前将AI主权视为CEO或董事会优先事项的组织比例极低,仅有15%。缺乏高层所有权会导致主权AI降级为仅仅是“合规复选框”,使组织容易受到地缘政治风险和战略权衡的制约。CEO必须参与决策,根据地缘政治风险、供应链韧性和长期成本来选择供应商,并建立协调法律、财务和技术优先事项的治理框架。政府可以通过设立“AI主权官”等角色来引导企业重视执行层面的所有权。
2. 重新定义主权:从风险管理转向价值创造 (Reframe Sovereignty)目前主权AI的驱动因素仍以防御性为主,46%的受访者以合规性为主要动机,28%出于控制关键数据,而仅有13%将其视为数据变现或将AI能力本地化以匹配文化价值的机会。报告强调,主权与竞争力密不可分,只有将主权嵌入商业策略,才能捕获客户信任,并创造出在语言和文化上与本地市场匹配的AI。例如,主权AI平台通过在可信框架内安全共享数据,促进跨行业合作,如英国的OpenBind联盟致力于在本地构建数据集以加速药物发现。各国政府可以通过资助本地基础设施、补贴可信供应商和开放公共数据集来增强本地创新生态系统。
3. 扩展您的生态系统:驾驭主权连续体 (Expand your Ecosystem)主权AI并非“全有或全无”的二元概念,而是一个“连续体”。企业必须根据风险和价值需求,灵活地调整所需的主权程度。报告发现,55%的企业正在考虑同时采用本地和全球的主权供应商,这表明混合策略是主流选择。报告定义了四种主要的生态系统参与者类型:
- 全球云提供商(Global Cloud Providers):提供规模和创新,但需要本地法律、运营和技术保障。
- 前沿践行者(Frontliners):国家认可的本地电信或高科技公司,具备本地品牌认知和数据中心,能满足公共部门的信任要求(如印度尼西亚的Indosat Ooredoo Hutchison)。
- 新云(Neoclouds):AI原生提供商,专注于提供高性能、本地化治理的AI工作负载基础架构(如Nebius)。
- 联邦联盟(Federated Consortia):跨政府、行业和技术提供商的联盟,共同开发共享的主权基础设施和治理框架(如欧洲的AI Gigafactory倡议)。
4. 重新定义架构:为智能而非仅基础设施实现主权 (Redefine Architecture)随着生成式AI和智能体(Agentic AI)的出现,主权的需求已从基础设施和数据本地化,扩展到智能本身。埃森哲强调,组织必须重构架构,实现对整个AI堆栈(从基础设施到模型和应用)的动态控制和治理。然而,研究显示,企业在AI堆栈的控制上存在巨大盲点:60%的组织对数据应用了主权监管,46%针对基础设施,但只有32%针对应用程序,而针对AI模型本身的监管更是只有22%。这种对模型和应用层面的疏忽,使得AI中最具战略性的层级暴露于风险之下,尤其是在多代理协作的复杂系统中,缺乏全链条的动态治理将危及信任、弹性和合规性。
三、埃森哲的实践与技术支持
埃森哲与英伟达的合作是报告中提出的战略要务的具体体现,旨在为各国构建自主AI能力提供技术平台和参考架构。图穷匕见,应该是英伟达的目标所在😄。
AI Refinery平台与主权AI架构埃森哲的AI Refinery™平台是其加速欧洲AI议程的核心技术之一,它具备新的主权和智能体能力。该平台旨在帮助组织维护对关键数据的控制,并部署创新AI解决方案。该平台建立在NVIDIA Enterprise AI之上,提供了可配置的AI模型(可定制以适应国家语言和文化背景)、托管和管理在国家司法管辖区内的开发部署平台,以及针对公共部门和关键基础设施行业(如能源、电信和国防)的安全、易于定制的解决方案。
主权AI云的“操作系统”埃森哲与英伟达、Rafay、ServiceNow等合作伙伴共同开发了主权AI云的“操作系统”(Operating System for Sovereign AI Clouds)。该系统旨在为“前沿践行者”(Sovereign Frontliners)提供一个整体解决方案,以加速AI解决方案的部署。该操作系统将AI Refinery作为核心AI平台,并整合了NVIDIA NIM推理微服务和NVIDIA AI Enterprise软件,以确保在主权环境中提供AI就绪的基础设施和解决方案。
该“操作系统”覆盖了构建和运行主权AI云所需的六个核心层级:
- 基础设施(Infrastructure):提供可扩展、安全和合规的计算、存储和网络能力,由NVIDIA GPU提供加速计算。
- 编排(Orchestration):实现基础设施和AI应用的高效、自助服务管理,由Rafay平台和ServiceNow前端提供无缝用户体验。
- 知识(Knowledge):安全管理数据,通过AI Refinery工具简化多模态知识提取、整理和提供,确保数据AI就绪且符合政策。
- 模型(Model):在主权边界内构建、训练和部署AI/ML模型,强调模型的本地化、语言、法律和文化适应性。
- 应用(Applications):设计和部署跨经典AI、生成式AI和智能体AI的应用,并提供具备可验证标准和合规性的行业特定智能体。
- 运营与治理(Operations & Governance):通过统一的管理界面,提供对整个AI堆栈的监督,包括FinOps、AI监控、安全网关以及自动化合规报告。
客户案例:
- Indosat Ooredoo Hutchison (IOH),印度尼西亚:作为“前沿践行者”的典范,IOH正在通过其子公司Lintasarta与埃森哲、英伟达合作,建设该国首个主权AI云平台(Sahabat-AI),旨在开发服务于印尼语言和文化背景的本地大语言模型,并优先应用于金融服务等关键行业。
- 欧洲工业客户:埃森哲正在帮助客户部署“物理AI”以增强运营弹性,例如与KION合作,利用NVIDIA Metropolis和AI Refinery的SDK探索视频和图像分割能力,以提升制造和仓库自动化中的安全性、生产力和质量控制。同时,也在帮助像雀巢(Nestlé)这样的客户利用NVIDIA Omniverse平台创建产品数字孪生,实现高质量电子商务内容的规模化生成。
四、业界反响与主权AI的理论讨论评述
埃森哲的报告在强调技术堆栈和商业战略的同时,也与更广泛的学术和地缘政治讨论相呼应。
1. 主权AI的理论框架:从二元对立到“管理的相互依存”
报告的核心突破之一在于将主权AI视为一个连续体,而非孤立主义的二元选择。这与学术界(如Accenture Research在arXiv上的论文)提出的“管理的相互依存”(Managed Interdependence)理论高度一致。该理论认为,在全球化AI价值链中,完全的自给自足既不可行也不可取。国家必须在战略上选择控制AI的哪些关键组件,并接受哪些必要的国际依赖。
该理论将主权AI定义为四个相互依存的支柱的函数:数据(D)、计算基础设施(C)、模型自主性(M)和规范对齐(N)。政策制定者面临的规划问题是:在预算约束下,如何最大化地分配资源以实现平稳的边际主权收益,并设定一个最优的开放度(O)水平,即全球协作的边际收益等于依赖性风险的边际成本。
例如,印度的印度AI使命(IndiaAI Mission)展示了这种“管理的相互依存”策略,通过AIRAWAT超级计算机和Bhashini等项目在数据和计算上取得了主权立足点,但在模型自主性和持续的模型运营(ModelOps)治理方面仍存在结构性依赖和差距。相比之下,中东国家(沙特阿拉伯和阿联酋)则采用了国家主导的高投入模式(如HUMAIN和Falcon-180B),反映出政策制定者对主权AI赋予了更高的权重,以及相对较低的公共资金影子价格,因此它们倾向于通过在基础设施和本地模型上进行大规模投入,来确保“阿拉伯语优先”的规范对齐和本地化。
2. 地缘政治与国际治理的“安全优先”
埃森哲的报告背景与当前人工智能国际治理中显著的“安全优先”的讨论高度吻合。有学者指出,不同于历史上新兴技术(如互联网)发展初期倾向于“发展优先”,当前的AI治理进程从一开始就聚焦于安全和风险管控。这种现象的底层逻辑是多重的:
- 技术逻辑:新一轮AI浪潮(以GPT-4o等为代表)不仅打通了从技术到社会应用的闭环,更展现出智能涌现性、高度不确定性甚至不可控性,带来了升级型(如“越狱”攻击)、难控型(如“幻觉”)和不可控型(如“涌现”)的新型安全挑战。这种技术特性使得安全议程明显前置。
- 发展逻辑:技术突破与应用落地同时铺开,加速了安全议程的前置。
- 政治逻辑:地缘政治竞争态势加剧,中美两国将AI视为重塑国际力量格局的关键变量,并从国家安全视角进行“高政治”叙事。例如,美国持续收紧对中国先进芯片和技术的出口限制。这种竞争态势将安全议题推向国际治理的优先目标,甚至阻碍了基于合作的全球治理模式的形成。
主权AI与“安全优先”的交叉点在于,主权AI正是各国在“安全优先”的政策环境中,为应对外部依赖和不可控风险所采取的战略性进攻和防御手段。报告揭示的“主权成熟度指数”中,合规和安全仍是欧洲企业采用主权AI的首要动机,这也反映了“安全优先”在企业决策中的实际影响力。然而,埃森哲的报告则试图引导企业,不要止步于防御,而应看到主权所带来的本地价值创造和竞争优势(如构建符合本地文化和语言的AI模型)。
3. 从防御到价值创造的挑战与机遇
埃森哲报告强调的从“风险管理”到“价值创造”的转型,是主权AI战略成功的关键。
- 挑战:架构盲点与治理滞后。报告清楚地指出了企业在AI堆栈中的“主权盲点”——对AI模型和应用的控制不足(分别为22%和32%)。在智能体(Agentic AI)和生成式AI广泛应用的背景下,如果不对模型行为、更新和治理(ModelOps)进行本地化控制和审计,那么即使数据和基础设施实现了本地化,核心智能仍可能受到外部价值观或技术限制的侵蚀,从而损害文化主权和国家价值观的体现。
- 机遇:生态系统和技术赋能。“主权连续体”的观点为全球经济体提供了务实的路径。通过构建混合生态系统(融合全球巨头、前沿践行者、新云和联邦联盟),组织可以灵活地在需要高可靠性、高信任度的关键领域实现主权(例如公共部门、关键基础设施),同时利用全球创新(如NVIDIA的加速计算和AI Refinery的平台能力)来保持竞争力。这种模式有助于克服发展中国家在半导体等高投入领域的技术依赖。
简而言之,埃森哲的报告提供了一个及时且具有操作性的框架,帮助各国和企业在AI时代进行战略定位。它正视了地缘政治和技术集中带来的挑战,并提供了一条基于“管理的相互依存”和“全堆栈治理”的现实路径。正如报告总结,主权AI不是关于关闭边境,而是关于创造选择、适应和影响全球网络AI生态系统的能力。只有将主权AI提升至CEO和董事会层面,并将其视为重塑竞争力的机会,而非仅仅是技术合规的成本,组织才能在未来的AI时代中真正掌握主动权。
类比而言,主权AI就像各国不再满足于租用或购买全球统一品牌的“智能汽车”来驾驶其国家经济和关键服务,因为这些汽车的底层操作系统、导航地图(数据/模型)和维修配件(芯片/人才)都由少数海外巨头控制。相反,主权AI战略是各国决定自己必须拥有方向盘和本地化导航系统(模型自主性和规范对齐),即使发动机(芯片)仍然依赖全球供应链,但至少能确保汽车在本地的道路(基础设施)上按照本国的交通规则和文化习惯(规范)安全可靠地行驶。
五、结语:中国主权AI的进阶之路
埃森哲的报告为我们理解主权AI提供了一个及时且务实的框架,其核心在于将主权AI视为一个“管理的相互依存”连续体,并强调战略重心必须从被动防御的“风险管理”转向主动进攻的“价值创造”引擎。报告清晰地指出,全球AI的核心要素高度集中,地缘政治动荡驱动了对主权解决方案的急迫需求,但多数组织对AI主权的战略认知和高层所有权仍严重滞后。
我国在发展主权AI的道路上,应充分借鉴并超越报告中的四个战略要务,把握以下进阶方向:
1. 补齐“智能”主权短板,实现全栈动态治理
报告揭示了AI堆栈的“治理盲点”,即企业对模型和应用层面的主权控制远远落后于基础设施和数据。鉴于我国在大模型和智能体(Agentic AI)领域的快速发展,必须将主权需求从“基础设施本地化”提升至“智能本身的主权”。这意味着应建立全生命周期、动态、可审计的ModelOps和App-Ops治理体系,确保模型行为、更新迭代和价值观对齐完全符合国家法律、文化规范和社会伦理,以应对新一代AI带来的高度不确定性风险。
2. 激活“价值创造”动机,构建本地生态优势
主权AI不应被视为昂贵的合规成本。我国应将AI主权战略深度嵌入国家和企业的产业升级、数字经济和文化复兴战略中。通过资助“新云”和“联邦联盟”等本地生态伙伴,开放高质量的公共数据集,并鼓励开发与本地语言、文化、行业知识高度匹配的AI模型。这种本地化创新不仅能提升客户信任,更能在关键基础设施、医疗健康、金融服务等受严格监管的行业中,转化为独特的竞争优势和可观的市场价值。
3. 驾驭“管理的相互依存”,策略性参与全球协作
报告提出的“主权连续体”理论对我国具有核心指导意义。在半导体等高投入、高依赖的环节,应聚焦于“可替代性和韧性”的建设,而非盲目追求完全的自给自足。同时,应在AI基础理论、国际标准制定、安全治理等领域,策略性地保持开放度,在国际治理中推动建立互信、透明的共享机制,以最低的依赖性风险成本,最大化地获取全球AI生态的先进技术和创新溢出,确保我国的主权AI发展始终立于全球技术前沿。
简而言之,中国的主权AI战略应是一项由高层驱动、以价值创造为导向(Reframe Sovereignty)、强调混合生态系统(Expand your Ecosystem),并致力于全栈智能治理(Redefine Architecture)的系统工程。只有这样,才能真正将主权AI从地缘政治的防御盾牌,转化为驱动国家经济增长和长期战略自主的科技利剑。

留下评论