
——一篇田野笔记,如何照亮中美AI竞争的另一张底片
2026年5月7日,Nathan Lambert坐在从杭州开往上海的高铁上。窗外是山脊、风机、农田和城市天际线;窗内,是一位美国AI研究员刚刚结束的中国实验室之旅。
这趟旅程后来变成了一篇文章:《Notes from inside China’s AI labs》。它的价值不在于证明“中国更强”或“美国更强”,而是把中美AI竞争从芯片、算力、制裁这些粗线条叙事里拉了出来,让我们看见更贴近地面的东西:组织怎么运转,学生如何进入核心项目,公司为什么愿意开源,产业为什么坚持掌控技术栈。
他看见的不是口号,而是工程组织
Lambert不是普通游客。他是Allen Institute for AI的研究员,此前在Hugging Face做过RLHF相关研究,长期写作开放模型、后训练和前沿模型生态。因此,他对中国AI的观察,最敏感的不是宣传口号,而是工程现场的气味。
在他的笔记里,中国LLM社区并不像美国前沿实验室那样充满部落边界。许多团队彼此尊重,也承认DeepSeek、阿里、字节等玩家的影响力。更有意思的是,很多仍在读书的学生已经进入核心研发;美团、小米、蚂蚁这样的公司,也会认真训练自己的通用模型。
这背后是一种产业直觉:如果大模型会成为未来产品的底层接口,那么把它完全交给别人,就像把自己的神经系统外包。所以,开源在这里并不只是理想主义。发布权重,换来开发者反馈;扩大社区影响,再把内部微调版本接回业务。这是一种非常实用的生态策略。
但不要把一切解释成“文化优势”
文章最容易引发争议的地方,是把中国实验室的某些效率归因于组织文化。这个判断并非完全没有道理。今天的大模型不再只是几个天才研究员拍脑袋的产物,而是一整套复杂工程系统:数据、训练、后训练、评测、部署、反馈,任何一环粗糙,模型都会露出缝。
可“文化”也是一个危险的解释容器。中国实验室的效率,可能来自组织纪律,也可能来自就业压力;可能来自学生早早进入核心项目,也可能来自年轻人才被过度消耗;可能来自务实工程风格,也可能来自一些人不愿公开谈论制度、伦理和社会后果。
真正值得读的田野笔记,不是从头到尾都正确,而是愿意暴露自己的盲区。Lambert后来也修正了自己对中国研究者“不谈大问题”的理解,承认这不只是谦逊,也和成长制度、训练环境有关。
开源正在改变竞争坐标
过去一年,中国AI最重要的外部信号,是open-weight模型的扩散。DeepSeek之后,Qwen、Kimi、MiniMax、智谱、小米等模型不断进入全球开发者视野。Stanford HAI的2026 AI Index也指出,中美顶尖模型性能差距已经大幅收拢。
如果闭源模型像高楼,开放模型更像道路。高楼代表天际线,道路决定谁能进入、谁能迁移、谁能把自己的业务接上去。美国顶级闭源模型仍然很强,但中国开放模型正在另一层面争夺开发者心智。对一个印度创业者、巴西中小企业或欧洲本地部署团队来说,如果成本、隐私或政策让他们不能长期依赖美国闭源API,中国开权重模型就可能成为默认基础设施。
被误读的“中国速度”
中文圈读这篇文章,很容易读出一种暗爽:你看,连美国研究员都承认中国AI实验室很强。可最好不要停在那里。强大和健康不是一回事。一个生态可以很高效,同时很压抑;一个组织可以很会交付,同时不太鼓励异议;一批年轻研究者可以快速成长,同时过早被消耗。
对中国AI最好的评价,不是“厉害了”,也不是“危险了”,而是把它当作一个复杂、快速、充满矛盾的真实系统来看。美国也一样。美国前沿实验室拥有资本、人才和闭源商业化优势,也被估值、明星文化、产品压力和安全争议拉扯。中国实验室拥有工程韧性、产业腹地和开源扩散能力,也被芯片约束、数据产业短板、组织等级和公共讨论空间限制。
两边都不是神话。两边都是机器,只是齿轮长得不一样。
真正决定未来的,可能不是某次发布会,也不是某张榜单,而是那些更不起眼的问题:谁能持续吸引开发者?谁能把模型嵌入产业?谁能让年轻研究者既有速度也有余地?谁能在开放与安全之间建立可信规则?谁能把一套技术栈变成别人愿意依赖的日常工具?
AI竞争的故事,从来不只发生在云端的数据中心里。它也发生在实验室的白板前、学生的工位上、开源社区的issue里、公司内部那些没人署名的脚本中。真正的技术强国,最后比拼的不是谁喊得更响,而是谁能让这些沉默的系统,长期、诚实、有效地运转下去。
参考资料: Nathan Lambert / Interconnects AI《Notes from inside China’s AI labs》;Stanford HAI《2026 AI Index Report》;Hugging Face关于中国开源AI生态与全球算力格局的系列文章。

留下评论